Aufrufe
vor 4 Jahren

RISIKO MANAGER_07.2019

  • Text
  • Risiko
  • Banken
  • Unternehmen
  • Regulatorischen
  • Kalibrierung
  • Aufsicht
  • Perspektive
  • Institut
  • Werttreiber
  • Verteilung
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

6

6 RISIKO MANAGER 07|2019 nehmer zu berücksichtigen. Bestehende Signifikanztests, die segmentspezifische Korrelationen berücksichtigen, weisen immer noch einige Defizite auf, die nachfolgend erläutert werden. Kalibrierungstests mit segmentspezifischen Korrelationen Eine Möglichkeit, Abhängigkeiten zwischen Kreditnehmern in einen Kalibrierungstest zu integrieren, ist das sogenannte Ein-Faktor-Modell. Dabei sind alle Kreditnehmer nur indirekt über einen systematischen Faktor (interpretierbar als „Konjunktur“) korreliert. Dieser systematische Faktor hat auf alle Kreditnehmer die gleiche Wirkung und die Stärke des Zusammenhangs zu diesem Faktor wird über den Parameter ρ (Assetkorrelation) berücksichtigt. Das Ein-Faktor-Modell ist auch die Grundlage der Basel-Formel zur Berechnung der Eigenkapitalunterlegung. Zu den Grundlagen des Faktormodells für Kreditrisiken siehe [Merton 1973] oder [Gordy 2003]. Die Ausfallwahrscheinlichkeit in Abhängigkeit von einem systematischen Faktor (C) lässt sich dann schreiben als bedingte Wahrscheinlichkeit ( Gleichung 01). Gleichung 01 Φ ist die Verteilungsfunktion der Standardnormalverteilung. Erweitert man den Binomialtest um die segmentspezifische Korrelation, indem man statt der unbedingten PD die bedingte PD verwendet, so sind die Wahrscheinlichkeit p und die kumulative Wahrscheinlichkeit P gegeben durch Gleichung 02 und Gleichung 03 [vgl. BCBS 2005]. Gleichung 02 Gleichung 03 ϕ und Φ sind die Dichte- bzw. die Verteilungsfunktion der Standardnormalverteilung. Problematisch bei der Berechnung dieses um die Assetkorrelation ergänzten Binomialtests ist, dass sich das Integral nicht in geschlossener Form lösen lässt, sodass auf numerische Integration zurückgegriffen werden muss. Da hier nur ein Korrelationsparameter über alle Fälle verwendet wird, eignet sich der Test in dieser Form jedoch auch nur für die Anwendung auf eine einzige Jahresscheibe. Weitere Alternativen zu den bisher vorgestellten Varianten, die Korrelationen berücksichtigen, sind z. B. der Vasicek-Test (asymptotisches „Basel-Einfaktor-Modell“) für große Fallzahlen und homogene Ausfallwahrscheinlichkeiten [siehe BCBS 2005] oder der Traffic Light Approach (Vasicek-Modell mit Granularitätsanpassungen) [vgl. Tasche 2003]. Der Vasicek-Test ist aufgrund der Grenzwertannahme des Modells von der Fallzahl N unabhängig anwendbar, lässt also die Größe des Portfolios außer Acht und ist nur für große Stichproben geeignet. Der von Tasche vorgeschlagene Vasicek-Ansatz mit Granularitätsanpassungen berücksichtigt zwar die Endlichkeit der Stichprobe, jedoch werden die Quantile der Verteilung durch die Taylor-Entwicklung approximiert. Nachteile dieser Tests sind zudem, dass sie auf nur eine Gruppe wie z. B. das Gesamtportfolio, nur eine Jahresscheibe bzw. eine Ratingklasse angewandt werden können, da nur eine PD einfließt. Im folgenden Abschnitt zeigen wir, wie ein solches Korrelationsmodell auch für kundenindividuelle PDs über alle Ratingklassen und alle vorliegenden Jahresscheiben hinweg angewendet werden kann. Theoretisches MEFAK-Modell Das von der DZ BANK entwickelte MEFAK Modell (Mehrjähriges Ein-Faktor-Ausfallmodell mit zeitlicher Korrelation) behebt diese Schwächen und berücksichtigt neben segmentspezifischen Korrelationen auch Korrelationen zwischen den Jahren. Am besten lässt sich das Modell anhand eines grafischen Modells, dargestellt in Abb. 02 beschreiben. Die Parameter werden dabei als Knoten bzw. Kästchen dargestellt. Durch die Verbindung der Parameter mit Pfeilen lassen sich die Zusammenhänge – ob stochastisch (rote Pfeile) oder deterministisch (schwarze Pfeile) – einfach ablesen, wobei die Farben der Kästchen angeben, um welche Art von Parametern es sich handelt. Konkret stellen die blauen Felder die vorgegebenen latenten Größen bzw. Parameter des Modells dar, in unserem Fall somit die durch das Rating vorgegebenen mittleren Ausfallwahrscheinlichkeiten PD kj pro Ratingklasse k und Jahr j, sowie die beiden Korrelationsparameter ρ und τ. Als beobachtete Größen (graues Feld) wird die Zahl der unter Ausfallrisiko stehenden Kunden pro Ratingklasse und Jahr N kj aufgefasst. Die Zahl der Ausfälle D kj pro Ratingklasse und Jahr sowie weitere von der Ausfallzahl abhängige, z. B. über Ratingklassen und Jahre aggregierte Fehlermaße E, sind abhängige Zufallsvariablen (gelbe Felder), deren Verteilung simuliert wird. Der die Ausfallkorrelation vermittelnde systematische Faktor („Konjunktur“) C j pro Jahr und die durch ihn mitbestimmte bedingte Ausfallwahrscheinlichkeit PDC kj pro Rating und Jahr werden als latente Größen (rote Felder) nicht beobachtet, zur Ermittlung der Verteilung der abhängigen Größen wird über sie hinwegintegriert. Neben der Analyse auf Ratingklassenebene kann das Modell auch auf Kundenebene genutzt werden, der Index k bezeichnet dann Einzelkunden (Geschäftspartner)

ERM 7 anstatt Ratingklassen und die Anzahlvariablen N kj nehmen die Werte 0 oder 1 an. Die einzelnen Variablen werden im Folgenden konkretisiert. Der systematische Faktor wird als J-dimensionale normalverteilte Zufallsvariable modelliert, wobei J die Anzahl vorhandener Jahresscheiben bezeichnet, mit der Wahrscheinlichkeitsdichte Gleichung 04 und der zeitlichen Kovarianzmatrix K ij = τ |i-j| . Für die bedingte PD gilt: Gleichung 05 1 → C T K -¹ C, → 2 D = {D kj |1 ≤ k ≤ K, 1 ≤ j ≤ J }, N = {N kj |1 ≤ k ≤ K, 1 ≤ j ≤ J } und PDC = {PDC kj |1 ≤ k ≤ K, 1 ≤ j ≤ J } abhängigen Effektgrößen E = e ( → D, → N, → PD), typischerweise Fehlermaße, oder verschiedene Aggregationsstufen bzw. Aggregationsvarianten erweitert werden. Beispiele Es lassen sich alle für den Ratingbau relevanten Fehlermaße berechnen und auswerten. Zu den typischen im Ratingbau verwendeten Fehlermaßen bzw. Teststatistiken siehe z. B. [BCBS 2005]. Für die Validierung der globalen Kalibrierung eines Ratingverfahrens kommt neben der Anzahl der Ausfälle bzw. der Ausfallrate selbst insbesondere die Verzerrung/Bias infrage, die je nachdem, Gleichung 07 Für die aus dem MEFAK-Modell simulierte Verteilung der Fehlermaße kann nun ein einseitiges, zweiseitiges oder ein HD(highest density)-Intervall HDI(e, α) ausgewählt werden mit einer Überdeckungswahrscheinlichkeit von α, wobei für α typischerweise 99 Prozent oder 95 Prozent gewählt wird. Falls sich der aus dem empirisch gemessenen Ausfallvektor → D emp ergebende empirische Fehler e( → D emp , → N, → PD) in diesem Intervall befindet, also z. B. E emp ⋲ HDI(e, α), wird für den Signifikanztest die Nullhypothese einer korrekten Kalibrierung nicht verworfen. Abb. 03 zeigt beispielhaft eine simulierte Verteilung von Bias PD in Form von roten Balken mit einem 95 Prozent HDI und dem empirisch beobachteten Wert in hellblau (gestrichelte Linie). analog zum einfachen Basel-Einfaktor-Modell, wobei die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Bei gegebener bedingter Ausfallwahrscheinlichkeit und bekannter Fallzahl sind die Ausfälle binomialverteilt. Gleichung 06 Die für die Validierung interessanten Verteilungen der Ausfälle D = {D kj |1 ≤ k ≤ K, 1 ≤ j ≤ J } unter Berücksichtigung von Korrelationseffekten können mit einer Monte-Carlo-Simulation erzeugt werden. Für den systemischen Faktor werden dafür normalverteilte Zufallszahlen gezogen. Die Simulation von Verteilungen für Ausfälle kann nun leicht um die Simulation der Verteilungen von vielfältigen, von den Größen ob eine globale Unter- oder Überschätzung der tatsächlichen Ausfallzahlen vorliegt, positiv oder negativ werden kann. Für die Validierung der lokalen Kalibrierung auf Ratingklassenebene sind dagegen nur nicht vorzeichenbehaftete Fehlermaße geeignet, bei denen es nicht zu einer Kompensation von positiven und negativen Summanden für einzelne Klassen kommen kann. Diese Anforderung erfüllt z. B. das Kalibrierungsmaß „die mittlere negative Loglikelihood“. Gleichung 08 Implementierung des MEFAK- Modells Bewährt hat sich eine Implementierung in JAGS (Just Another Gibbs Sampler), die über die Schnittstelle rjags von der Statistiksoftware R aus aufgerufen und ausgewertet werden kann. Bei JAGS handelt es sich um eine deklarative Programmiersprache, in der ein grafisches Modell, wie z. B. das hier vorgestellte MEFAK-Modell, definiert und die durch Beobachtung oder Setzung festgelegten und die abhängigen Variablen, deren Verteilung betrachtet werden soll, übergeben werden. Die Erzeugung passend verteilter Zufallszahlen und die notwendigen Integrationen über die latenten Variablen werden dem Nutzer dabei weitgehend abgenommen. Dadurch lassen

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.