Aufrufe
vor 6 Jahren

RISIKO MANAGER 06.2016

  • Text
  • Zugang
  • Risiko
  • Ausfallmuster
  • Restlaufzeit
  • Definition
  • Variablen
  • Gleichung
  • Risikomanagement
  • Portfolio
  • Prozesse
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

14

14 RISIKO MANAGER 06|2016 Frühwarnung Entscheidungsbaumbasierte Frühwarnsysteme für Low-Default- Portfolien Die ab Mitte 2007 eingetretene Finanzkrise zeigte im Bereich der Low-Default-Portfolien (beispielsweise Staaten, Banken) die hohe Bedeutung von Frühwarnsignalen/Frühwarnsystemen auf. Darüber hinaus machte die zeitverzögert eingetretene Staatschuldenkrise (beispielsweise PIIGS-Staaten) deutlich, dass auch bei als hoch entwickelt eingestuften Ländern die von ihnen emittierten Wertpapiere mit einem ernstzunehmenden Adressausfallrisiko behaftet sind. Herkömmliche Rating-Systeme sind jedoch konstruktionsbedingt häufig nicht zur Früherkennung von Ungleichgewichten geeignet. Die Ergänzung dieser Systeme mit auf die Erzeugung von Warnsignalen getrimmten Prognosemodellen stellt einen sinnvollen Schritt zu einem an die „neue Normalität“ angepassten quantitativen Risikomanagement dar. Auf Basis der sieben auswertbaren stand-alone Existenzkrisen der Jahre 2003 bis 2010 haben die Autoren ein entscheidungsbaumbasiertes Frühwarnsystem für Ausfälle von Staaten entwickelt. Die dabei verwendete grundlegende Methodik basiert auf dem Random-Forest-Verfahren [Breiman 2001], wie es beispielsweise auch die EZB zur Entwicklung eines Warnsystems für Bankensystemkrisen eingesetzt hat [Vgl. Alessi und Detken 2014]. Ziel der Vorgehensweise ist es, robuste Entscheidungsregeln herzuleiten, welche vor dem Eintritt einer Existenzkrise (das heißt innerhalb eines Intervalls von beispielsweise ein bis drei Jahren vor Ausbruch der Krise) die notwendigen Warnsignale erzeugen. Die Entwicklung erfolgte anhand der Sprache R. Da diese dazu mehrere Verfahren bietet und a priori sowohl das Random Forest mittels „Recursive Partitioning“ (rpart) als auch mittels „Conditional Inference“ (ctree) als besonders geeignete Methoden für diese Aufgabe erscheinen, wurden beide Verfahren jeweils anhand eines eigenen Modells untersucht. Neben der Prognosegüte stellte eine hohe fachliche Plausibilität der resultierenden Entscheidungsregeln ein wichtiges Kriterium für die Modellqualität dar. Üblicherweise werden bei Adressausfallrisiko-Modellen Faktoren gesucht, welche auf ihrem gesamten Wertebereich direkt eine hohe Prognosegüte gegenüber der Zielgröße (beispielweise Ausfall, Stand-Alone-Ausfall vor Support, etwa durch IWF oder Konzernmutter, Near Defaults, kalibrierte externe Ratings) aufweisen. In der Praxis zeigt sich jedoch, dass zum Teil die Kombination von Faktoren unter Beachtung bestimmter Faktorwerte/ Faktorwertbereiche (im Folgenden „Risikofaktor-Muster“) von hoher Relevanz ist. Die Identifikation solcher Muster ist in der Regel nicht trivial. Ein Beispiel aus dem Bereich Staaten ist der Leistungsbilanzsaldo. Staaten mit chronischen Leistungsbilanzdefiziten weisen grundsätzlich ein höheres Ausfallrisiko auf, da die Defizite über eine Erhöhung der ausländischen Verschuldung finanziert werden müssen. Allerdings gibt es einige Konstellationen, wo dieser Schluss ökonomisch nicht zutreffend ist. Transformationsländer („Catching up Economies“) haben beispielsweise regelmäßig ein strukturelles Leistungsbilanzdefizit, da die inländische Ersparnis nicht für die inländischen Investitionen ausreicht, und sind daher auf ausländische Finanzierung angewiesen. Sofern jedoch die ausländische Verschuldung zur Erhöhung des Produktionspotenzials (und damit letztlich der Erhöhung des BIP) beiträgt, sind chronische Leistungsbilanzdefizite nicht mit signifikant erhöhten Ausfallrisiken verbunden. In diesem konkreten Beispiel stellt sich also die Frage, welche zusätzlichen Bedingungen nötig sind, damit ein chronisches Leistungsbilanzdefizit mit einem erhöhten Ausfallrisiko einhergeht und somit insgesamt ein Risikofaktor-Muster vorliegt. Die Identifizierung von Risikofaktor-Mustern kann auf unterschiedliche Art und Weise erfolgen. Rating-Analysten mit einem großen Erfahrungsschatz können oft aufgrund ihres „Bauchgefühls“ zielführende Hinweise geben. Alternativ können moderne Data-Mining-Techniken solche Konstellationen – auch im Bereich der Low-Default-Portfolien – aufdecken. Durch Mining-Techniken identifizierte Zusammenhänge müssen jedoch immer zusätzlich durch fachliche Experten geprüft/plausibilisiert und gegebenenfalls auch qualitativ modifiziert werden, denn empirisch feststellbare Abhängigkeitsmuster lassen nicht zwingend auf das Vorhandensein von Kausalbeziehungen schließen. Eine hohe Datenqualität (Risikofaktoren und Zielgröße) und eine hohe fachliche Plausibilität der Risikofaktoren, auf denen mittels Data-Mining-Techniken nach Risi-

Kreditrisiko 15 kofaktor-Mustern gesucht wird, beeinflussen die Qualität der Ergebnisse signifikant. Methodik: Allgemeines über Entscheidungsbäume Ein Entscheidungsbaum kann kurz beschrieben werden als eine deterministische Datenstruktur, welche anhand von dichotomen Entscheidungsregeln eine Datenmenge bezüglich der Ausprägungen einer Variablen (der sogenannten abhängigen Variablen) klassifiziert. Diese Datenstruktur zeichnet sich durch die verschachtelte Wirkung lokaler Interaktionen aus. Das heißt eine Variable wirkt möglicherweise auf die abhängige Variable ausschließlich in einer durch die Ausprägungen anderer Variablen definierten Teilmenge des Stichprobenraums. Abb. 01 veranschaulicht den Sachverhalt für den fiktiven Fall einer Kreditrisikobeurteilung. Es ist unmittelbar ersichtlich, dass die Variablen „Beamtenstatus“ und „Eigentümer“ jeweils nur für bestimmte Ausprägungen der Variablen „Alter“ und „Nettogehalt“ über Prognosekraft bezüglich des Kreditrisikos eines Kreditnehmers verfügen. Wie beide in der Einführung genannten Verfahren basieren die meisten Algorithmen zur Konstruktion von Entscheidungsbäumen auf der rekursiven Zerlegung der Stichprobenwerte der abhängigen Variablen anhand der Werte einer unabhängigen Variablen. In jedem Schritt dieser rekursiven Zerlegung wird ein Optimalitätskriterium maximiert. Das „Recursive Partitioning“-Verfahren (R-Paket „rpart“) verwendet Informationsmaße wie den Gini-Koeffizienten zur Selektion der geeigneten Zerlegungsvariablen. Aufgrund der Überanpassungsgefahr werden mit diesem Verfahren konstruierte (einzelne) Bäume häufig zurückgestutzt. Das „Conditional Inference“-Verfahren (R-Paket „party“) hingegen setzt statistische Tests (Permutationstests) zur Bestimmung der Zerlegungen ein. Nur wenn der Wert des statistischen Tests als signifikant zu einem vorgegebenen Niveau angesehen werden kann, wird die Zerlegung vorgenommen. Aufgrund der Berücksichtigung statistischer Signifikanzen müssen die auf diese Art konstruierten Bäume in der Regel nicht zurückgestutzt werden. Vom Entscheidungsbaum zum „Random Forest“ „Random Forests“ [vgl. Breiman 2001] verallgemeinern die Entscheidungsbaumverfahren, indem sie eine Vielzahl einzelner Entscheidungsbäume anhand von Teilmengen der ursprünglichen Daten konstruieren. Dies geschieht durch Kombination zweier Variabilitätsquellen: » Bootstrap-Stichprobe der Beobachtungen und » Zufallsstichprobe der Variablen in jedem Knoten. Dadurch können Variablenkombinationen entstehen, welche erst durch Verschachtelung bedingter Prognosekräfte ihre Wirkung entfalten. Breiman [vgl. Breiman 2001, S.7] zeigt, dass durch die auf diese Weise konstruierten Bäume sowohl die allgemeine Prognosekraft als auch die Robustheit gegenüber Überanpassung erhöht werden können. Abb. 02 veranschaulicht ein fiktives „Random Forest“. Low-Default-Problematik: Unausgeglichene Stichproben Abb. 01 Ja Niedriges Risiko Trotz der erhöhten Robustheit können Random Forests, analog zu ihren zugrunde liegenden binären Entscheidungsbäumen, verzerrte Ergebnisse im Fall einer unausgeglichenen Verteilung der abhängigen Variablen hervorbringen. Denn die Zielfunktion kann durch die alleinige Berücksichtigung der häufigen Ausprägung optimiert werden. Dieser Fall ist typisch für Low-Default-Portfolien. Durch jedes binäre Prognosemodell kann ein Entscheidungsfehler auf zweierlei Art entstehen: 1. Ein positives Ereignis (Prognose nimmt den Wert 1 an) wird prognostiziert, obwohl keines vorliegt. Dies wird als „falsch positiv“ oder Fehler I. Art bezeichnet. Man beachte, dass in diesem Kontext ein positives Ereignis durchaus negative sachliche Auswirkungen haben kann. Im vorliegenden Fall stellt ein Ausfall ein positives Ereignis dar. 2. Ein negatives Ereignis (Prognose nimmt den Wert 0 an) wird prognostiziert, obwohl ein positives vorliegt. Dies wird als „falsch negativ“ oder Fehler II. Art bezeichnet. Dies kann anhand einer Vierfeldertafel veranschaulicht werden (siehe Tab. 01): Dem Fall eines Fehlers II. Art kommt im Fall von Low-Default-Portfolien eine besondere Bedeutung zu. Konzentriert sich der Algorithmus aufgrund einer sehr unausgeglichenen Verteilung der abhängigen Variablen auf die Unterschiedliche lokale Interaktionen in einem fiktiven Entscheidungsbaum. Alter > Y Niedriges Risiko Nein Beamtenstatus Hohes Risiko Ja Niedriges Risiko Nettogehalt > X Nein Ja Nein Ja Nein Niedriges Risiko Eigentümer Hohes Risiko

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.