Aufrufe
vor 1 Jahr

RISIKO MANAGER 07.2018

  • Text
  • Banken
  • Risiken
  • Risiko
  • Risikomanagement
  • Unternehmen
  • Risikomanagements
  • Beispielsweise
  • Dissertation
  • Regulierung
  • Insbesondere
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

8

8 RISIKO MANAGER 07|2018 near die Entwicklung einzelner Positionen in Bezug auf die historischen Schwankungen, die historische Volatilität (Marktrisiko). Die Volatilität und damit der Wert einer Position kann sich jedoch auch unabhängig von Marktbewegungen plötzlich dramatisch verändern. Ausschlaggebend sind hierfür andere Risikofaktoren wie Liquiditätsrisiken, die Befürchtung eines Zahlungsausfalls (Counterparty Risk) oder makroökonomische sowie politische Schocks (wie beispielsweise Brexit, Franken-Aufwertung). Unter diesen Umständen ändern sich die erwarteten Zahlungsströme, ohne dass sich der Markt für das Wertpapier geändert hätte. Das Wertpapier verliert deutlich an Wert oder wird gar illiquide, wie es 2008 weltweit geschah. Ein solcher Fall kann in klassischen Modellen wie dem Value at Risk nicht abgebildet werden, obwohl er ein äußerst relevantes Szenario darstellt. Stattdessen findet in der Praxis oft eine separate Risikoeinschätzung statt, die aber andere Modelle wie den Value at Risk nicht beeinflusst – es kommt zu einem für die Entscheider schwer durchschaubaren Nebeneinander von Risikobewertungen, man hat von „Silobildung für Risiken“ gesprochen. Bei der Aufwertung des Schweizer Franken im Jahr 2015 führte etwa ein geldpolitisches Phänomen an mehreren Tagen hintereinander zu Kursbewegungen von Wertpapieren, die nach damaligen statistischen Modellen nur einmal alle 4.000 Jahre auftreten dürften ( Abb. 01). Der Franken-Schock im Januar 2015 führte zu einer Kursbewegung um das 100-Fache der historischen täglichen Schwankung/ Standardabweichung und liegt damit weit außerhalb dessen, was existierende Valueat- Risk-Modelle berücksichtigen, da sie meist von normalverteilten Daten ausgehen, wonach Extreme praktisch kaum relevant sind. Zwar werden in neueren Modellen „Korrekturfaktoren“ eingebaut, mit dem Ziel, die Modelle robuster zu machen, jedoch bleibt das Problem nicht adäquat berücksichtigter Korrelationen durch Silobildung sowie fragwürdiger Grundannahmen zu Verteilungsform und Stationarität bestehen. Aus diesem Grund begnügt sich meine Dissertation „Assessing Risk Assessment“ [Hoffmann 2017] auch nicht mit diesen Einsichten und übt vielmehr eine fundamentale Kritik, die neben dem konstruktiven Vorschlag („Logik-basiertes Risikomanagement“) das Hauptergebnis der Arbeit darstellt. Vom dogmatischen Schlummer in der Risikobewertung In Hommage an David Hume sprach Immanuel Kant im Jahr 1783 von seinem Erwachen aus dem dogmatischen Schlummer, was den Weg für sein Oeuvre „Kritik der reinen Vernunft“ bahnte. Interessanterweise trägt das zentrale Argument meiner Dissertation, das Risikoforscher und -manager aus ihrem dogmatischen Schlummer führen soll, Züge von Humes Handschrift. Es ist der große Verdienst des schottischen Philosophen, das (alte) Rätsel der Induktion, das klassische Induktionsproblem beschrieben und seine Relevanz herausgestellt zu haben. Ein typischer Induktionsschluss wäre zum Beispiel: Die Sonne ging bis dato jeden Morgen auf, also wird das auch künftig allmorgendlich der Fall sein. Mit anderen Worten: Eine Induktion ist eine Schlussfolgerung, die erkenntniserweiternd ist und sich beispielsweise vom Speziellen aufs Allgemeine oder vom Speziellen auf Künftiges vollzieht. Die Frage, die sich Hume nun stellte, war, wie dieses Prinzip der Induktion überhaupt zu rechtfertigen sei, und dabei stößt man schnell auf ein Dilemma, ergo Humes Induktionsproblem. Denn induktive Methoden können weder induktiv (man darf nicht voraussetzen, was man zeigen möchte) noch deduktiv, also rein logisch, untermauert werden. In meiner Dissertation (vor allem in Kapitel 7) habe ich herausgearbeitet, dass sich auch im Feld des quantitativen Risikomanagements von Banken ein gravierendes Induktionsproblem stellt, das von einem schlüssigen expliziten Argument aufgegriffen wird (mein zentrales Argument). Neben einer Reihe direkt einleuchtender Prämissen kommt es primär auf folgende für die Richtigkeit des Arguments an – entsprechend gut gestützt wird sie durch angeführte Gründe: Die Eignung einer Wahrscheinlichkeitsverteilung für die Beschreibung bestimmter vergangener und zukünftiger Verlustdaten sowie für einen bestimmten Risikomanagementzweck kann nicht aus früheren Daten ermittelt werden. Mein zentrales Argument beinhaltet den Schluss, dass die Wahl einer bestimmten Verteilungsform, einer Wahrscheinlichkeitsverteilung, was für die Spezifizierung eines probabilistischen Risikomodells unabdingbar ist, für einen gegebenen Risikomanagementzweck notwendigerweise arbiträr ist und nicht gerechtfertigt werden kann. Damit stehen wahrscheinlichkeitsbasierte Modelle für Extremrisiken insgesamt am Pranger, und die vorangegangene Anklage lautet, dass die klassische probabilistische Lehre (das heißt wie sie ausgehend von der Axiomatisierung durch Kolmogorov geprägt wurde) schlichtweg ungeeignet für die Messung von Extremrisiken ist. Unter dieser in ihrer Durchschlagskraft neuartigen Bedingung, dass Extremereignisse in komplexen Finanzsystemen außerhalb des Geltungsbereichs der Wahrscheinlichkeitstheorie liegen, erweisen sich konventionelle Instrumente der Risikobewertung der Bank als (mindestens partiell) ineffektiv und bedürfen der dringenden fundamentalen Erneuerung. Jenseits des Dogmas wahrscheinlichkeitsbasierter Risikomessung „Assessing Risk Assessment“ ist ein Forschungsprojekt, das dezidiert zum Umdenken bewegen will, wofür aber das Vortragen von Einwänden, so stark sie auch sein mögen, nicht ausreicht. Deshalb leistet meine Dissertation auf der konstruktiven Seite noch zweierlei. Einerseits entgegnet sie auf das zentrale Argument, wonach das auf Wahrscheinlichkeitstheorie und -verteilungen fußende Haus des modernen quantitativen Risikomanagements nicht etwa einsturzgefährdet sei, sondern niemals wohlerrichtet wurde, weil ein theoretisches Fundament fehlt, auf ebenso fundamentale Weise und skizziert, welche Voraussetzungen ein Gegenentwurf erfüllen sollte. Andererseits präsentiert sie ganz konkret den Ansatz des sogenannten Logik-basierten Risikomanagements, der insbesondere auf

ERM 9 Abb. 01 Wechselkurs EUR/CHF die Anwendungen des Derivatehandels, des Asset- und Portfoliomanagements zugeschnitten ist. Die Erfordernisse an ein neues Paradigma können wie folgt umrissen werden: » Nutzung nicht-klassischer Theorien zur Messung von Unsicherheit oder Risiken: Um nicht länger dogmatisch an einem bestimmten Kalkül festzuhalten, sollte ein größeres Rahmenwerk geschaffen werden, das nicht nur Wahrscheinlichkeitstheorie (die unbestritten ihre Vorzüge auf anderen Gebieten hat), sondern etwa auch Fuzzy-Logik, Modallogik, Rangtheorie etc. zulässt, wo also die Wahl eines speziellen Formalismus ein Parameter des Modells wird. Da es keinen guten Grund gibt, warum Risikomodelle nur auf einer einzigen Repräsentationsweise von Unsicherheit (nämlich durch klassische Instrument 4/14 7/14 10/14 1/15 4/15 7/15 10/15 1/16 1.20 1.15 1.10 1.05 1.00 0.95 Wahrscheinlichkeiten) gründen sollen (gerade nicht aus systemischer Sicht), und da die unterschiedlichen Theorien zur Messung von Unsicherheit unterschiedliche Anforderungen an die Daten stellen, kann das Rahmenwerk passend zu der jeweiligen Anwendung respektive Datenbeschaffenheit geformt werden. Auch ein Benchmark ließe sich dann erstellen, und die verschiedenen Anwärter könnten gegeneinander antreten. » Ein neuer Entwurf sollte integrierbar in den bestehenden Apparat des Risikomanagements sein und die Integration neuer Ansätze (aus der Informatik und Epistemologie) begünstigen. Da meine Dissertation Extremrisiken in komplexen Finanzsystemen untersucht und bei ihren Bewertungsmethoden schwerwiegende Versäumnisse konstatiert, wäre ein darüber hinausreichender alternativer Gestaltungsvorschlag auch erst einmal nicht angezeigt. » Eine Reduktion von Risiken oder Unsicherheiten auf scheinbar gut messbare Risikosilos sollte vermieden werden. Eine systemische Konzeptionalisierung von Risiko ist wünschenswert, damit das Bewusstsein für Abhängigkeiten und Korrelationen geschärft wird. » Statt kaum begründeter Spekulation zu frönen (etwa durch die Berechnung von minimalen oder erwarteten Verlusten), sollte in der Risikomodellierung das betont werden, was bekannt ist (etwa Aktiva und Passiva der Banken oder Struktur und Definition von Finanzprodukten durch Kontrakte). Unabhängig von der Geltung meines zentralen Arguments muss schließlich anerkannt werden, dass die Datenlage zur Schätzung einer Verteilungsform, gerade was die Enden einer Verteilungskurve, was also Extremereignisse anbelangt, unzureichend und von schlechter Qualität ist. Da diese Erkenntnis schon fast einer notwendigen Wahrheit gleicht – extreme Ereignisse sind qua Definition selten –, ist es umso wichtiger, dass nicht bloß eine datengetriebene Analyse, sondern auch Strukturbetrachtungen zur Risikomodellierung verfolgt werden. Anders ausgedrückt: Es wäre töricht, sich bei der Untersuchung und Vorhersage sehr hoher und seltener Verluste alleine oder primär von der Rückschau und der Ermittlung von Eintrittswahrscheinlichkeiten leiten zu lassen, wenn sich, wie in komplexen Systemen üblich, die Umwelt schnell und radikal ändern kann. Diese Desiderate bilden den Ausgangspunkt für die Beschreibung eines innovativen Wegs zur Risikomessung anhand eines konkreten Gestaltungsentwurfs, um die bisherigen Limitationen zu überwinden. Ein neues Paradigma: Logikbasiertes Risikomanagement Der Name „Logik-basiertes Risikomanagement“ rührt daher, dass sich zum einen mein nachstehend skizzierter Vorschlag für die Modellierung von Extremrisiken explizit für formale Logiken wie die Modallogik öffnet und diese zu diesem Zweck fruchtbar macht. Zum anderen ist mein Ansatz, den ich zusammen mit einem Computerwissenschaftler erarbeitet habe, in Abgrenzung zu der konventionellen Vorgehensweise sehr viel deduktiver, da wir eine modulare Modelliersprache eingeführt haben,

RISIKO MANAGER

RISIKO MANAGER 01.2019
RISIKO MANAGER 02.2019
RISIKO MANAGER 03.2019
RISIKOMANAGER_04.2019
RISIKO MANAGER 05.2019
RISIKO MANAGER 06.2019
RISIKO MANAGER_07.2019
RISIKO MANAGER 08.2019
RISIKO MANAGER 09.2019
RISIKO MANAGER 10.2019
RISIKO MANAGER 01.2018
RISIKO MANAGER 02.2018
RISIKO MANAGER 03.2018
RISIKO MANAGER 04.2018
RISIKO MANAGER 05.2018
RISIKO MANAGER 06.2018
RISIKO MANAGER 07.2018
RISIKO MANAGER 08.2018
RISIKO MANAGER 09.2018
RISIKO MANAGER 10.2018
RISIKO MANAGER 01.2017
RISIKO MANAGER 02.2017
RISIKO MANAGER 03.2017
RISIKO MANAGER 04.2017
RISIKO MANAGER 05.2017
RISIKO MANAGER 06.2017
RISIKO MANAGER 07.2017
RISIKO MANAGER 08.2017
RISIKO MANAGER 09.2017
RISIKO MANAGER 10.2017
RISIKO MANAGER 01.2016
RISIKO MANAGER 02.2016
RISIKO MANAGER 03.2016
RISIKO MANAGER 04.2016
RISIKO MANAGER 05.2016
RISIKO MANAGER 06.2016
RISIKO MANAGER 07.2016
RISIKO MANAGER 08.2016
RISIKO MANAGER 09.2016
RISIKO MANAGER 10.2016
RISIKO MANAGER 01.2015
RISIKO MANAGER 02.2015
RISIKO MANAGER 03.2015
RISIKO MANAGER 04.2015
RISIKO MANAGER 05.2015
RISIKO MANAGER 06.2015
RISIKO MANAGER 07.2015
RISIKO MANAGER 08.2015
RISIKO MANAGER 09.2015
RISIKO MANAGER 10.2015
RISIKO MANAGER 11.2015
RISIKO MANAGER 12.2015
RISIKO MANAGER 13.2015
RISIKO MANAGER 15-16.2015
RISIKO MANAGER 17.2015
RISIKO MANAGER 18.2015
RISIKO MANAGER 19.2015
RISIKO MANAGER 20.2015
RISIKO MANAGER 21.2015
RISIKO MANAGER 22.2015
RISIKO MANAGER 23.2015
RISIKO MANAGER 24.2015
RISIKO MANAGER 25-26.2015
 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.