Aufrufe
vor 6 Jahren

RISIKO MANAGER 05.2016

  • Text
  • Risiko
  • Gumbel
  • Risiken
  • Oprisk
  • Insbesondere
  • Beispielsweise
  • Risikomanagement
  • Laufzeit
  • Gleichung
  • Verschiedenen
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

26 firm Frankfurter

26 firm Frankfurter Institut für Risikomanagement und Regulierung INTERVIEW „Wenn du eine Handlung erwägst, von der du nicht willst, dass sie morgen in der Zeitung steht, dann verzichte lieber darauf!“ Interview mit Prof. Paul Embrechts, ETH Zürich Operationelle Risiken sowie Reputationsrisiken spielen für die Finanz- und Realwirtschaft eine zunehmend bedeutende Rolle. Doch aus methodischer Sicht sind diese – oft einzelfallbezogenen und bisweilen existenzbedrohend hohen Verluste – nur schwer zu bändigen, ähnliches gilt für eine erfolgreiche Regulierung dieser Risikoklassen. Wir sprechen mit einem der Gründungsväter des quantitativen Risikomanagements – Prof. Paul Embrechts, Mitautor von „Modelling Extremal Events for Insurance and Finance“ und „Quantitative Risk Management: Concepts, Techniques and Tools“ – über neue Ansätze zur Modellierung, Schätzung und Quantifizierung von operationellen Verlusten und den Chancen und Grenzen quantitativer Modelle. In unserem Interview teilt Paul Embrechts interessante Anekdoten aus vielen Jahren seiner lebhaften Diskussion mit Banken, Versicherungen, Regulatoren und der wissenschaftlichen Gemeinschaft. FIRM-Redaktion: Zusammen mit Valérie Chavez-Demoulin und Marius Hofert haben Sie kürzlich einige wissenschaftliche Arbeiten zum Thema OpRisk veröffentlicht. Was waren die wichtigsten Erkenntnisse und praktischen Schlussfolgerungen? Paul Embrechts: Innerhalb der regulatorischen Risiken, denen Finanzinstitute ausgesetzt sind (Markt-, Kredit- und operationelle Risiken), spielt das operationelle Risiko (OpRisk) aus rein wissenschaftlicher Sicht eine sehr interessante Rolle. Sowohl ihre Struktur (Ausrichtung der Matrix an Business Lines (BL) und Event Types (ET)) als auch ihre statistischen Eigenschaften erschweren die Analyse von OpRisk-Daten. In der von Ihnen erwähnten Arbeit entwickeln wir ein Tool auf Basis der Extreme Value Theory (EVT), das eine Untersuchung dieser Daten anhand der verschiedenen BLs, ETs und weiterer Co-Variablen wie beispielsweise der Zeit ermöglicht, sodass sich die Datenmatrix als ein einziger (dynamischer) Datensatz modellieren lässt. Wir verstehen diese Arbeit als „statistische Forschung auf Grundlage von OpRisk-Daten“ und wollen nicht behaupten, „ein endgültiges Modell für die OpRisk-Praxis“ vorlegen zu können. Weitere meiner Arbeiten sind ähnlich angehaucht; so habe ich zusammen mit Giovanni Puccetti (2008) quantil-(VaR)basierte Schätzungen für in Matrixform angeordnete Verlustdaten als Funktion der Reihenfolge betrachtet, in der marginale VaR-Maße aggregiert werden, beispielsweise Erste-Zeile-Schätzung gefolgt von VaR-Aggregation oder Erste-Spalte-Schätzung gefolgt von VaR-Aggregation. Diese Frage kam bei uns durch den Basler Ausschuss auf. Beide Arbeiten sind insofern von praktischer Relevanz, als sie deutlich aufzeigen, dass es fast unmöglich ist, Risikomaß-Schätzungen für OpRisk-Daten objektiv durchzuführen. Ein Gutachter aus der Bankenbranche, der bei dem Paper, das ich mit Valérie und Marius herausgebracht habe, als Referee diente, war zunächst ganz aufgeregt, weil er dachte, wir hätten tatsächlich DIE Methode für die OpRisk-Praxis vorgelegt! Diese Person setzte alles daran, die neue statistische Methodik für die interne OpRisk-Datenbank der Bank umzuprogrammieren, um dann leider zu dem Schluss zu kommen, dass auch diese Methode nicht das „gewünschte“ Ergebnis lieferte. Natürlich können wir nur schwer nachvollziehen, was im Einzelnen zu diesem Ergebnis geführt hat, da uns die dabei verwendeten Daten nicht zur Verfügung stehen. Höchstwahrscheinlich hängt es mit der ausgeprägten Komplexität und den extrem schweren Ränder der OpRisk-Daten zusammen; auf diesen Punkt werden wir im Laufe des Gesprächs bestimmt noch zurückkommen. FIRM-Redaktion: Was denken Sie über die Methodik, mit der die Eigenkapitalanforderung für OpRisk in der Solvency-II-Standardformel berechnet wird? Ergibt sie aus ökonomischer Perspektive Sinn? Paul Embrechts: Das Solvency-II-Standardmodell für OpRisk basiert hauptsächlich auf größenspezifischen Merkmalen, insbesondere auf Prämien/Einnahmen und Rückstellungen. Die verschiedenen Gewichtungsfaktoren werden mithilfe aufeinander folgender quantitativer Auswirkungsstudien festgelegt und falls nötig aktualisiert. Dies erfolgt in enger Absprache mit der Branche. Im Großen und Ganzen ist dies ein löbliches Vorgehen, das auf die ersten Tage der Versicherungsaufsicht zurückgeht und sogar Eingang in die Basel-Standardansätze zur Bankenregulierung gefunden hat. Wie bei jedem Standardansatz kann man natürlich hinterfragen, ob die verwendeten Indikatoren – also

27 Ausgabe 05/2016 Prämien und Rückstellungen – die ökonomische Realität, wie beispielsweise Wirtschaftszyklen oder die dynamische Entwicklung eines Unternehmens, ausreichend erfassen. Es ist kein Zufall, dass kürzlich beschlossen wurde, in der Basel-III-Standardformel für Op- Risk den Schlüsselindikator „Bruttoeinnahmen“ (engl. Gross Income) durch den sogenannten Business Indicator (BI) zu ersetzen. Diese Entscheidung zielt zweifellos darauf ab, eine „größere Risikosensitivität“ sowie eine „verbesserte ökonomische Realitätsnähe“ zu erreichen. Bei der Versicherungsaufsicht ist mit ähnlichen Entwicklungen zu rechnen. Ursprünglich gab es beim Swiss Solvency Test (SST), der seit dem 1. Januar 2011 rechtsgültig in Kraft ist, keine (quantitative) Eigenkapitalanforderung für operationelle Risiken – bis heute nicht. Das OpRisk ist dem Swiss Quality Assessment (als Teil der zweiten Säule) zugeordnet. Interessanterweise scheint bei der Eidgenössischen Finanzmarktaufsicht FINMA neuerdings eine (quantitative) Eigenkapitalanforderung für OpRisk im Gespräch zu sein. Dies würde die beiden Regulierungsansätze (zumindest im Hinblick auf das OpRisk) einander annähern. FIRM-Redaktion: Werden wir jemals in der Lage sein, hohe Quantile für OpRisk exakt abzuleiten? Oder sollte die mathematische Forschung bei diesem Thema zu höchster Vorsicht gemahnen und den Einfluss des Modellrisikos klären? Paul Embrechts: Hier kann ich die erste Frage entschieden mit „Nein“ und die zweite ebenso entschieden mit „Ja“ beantworten. Hauptgrund für das „Nein“ ist die Komplexität von OpRisk-Verlustdaten: große Ungleichheit zwischen den verschiedenen Verlustarten, schlecht erforschte Interdependenz, schwer erfassbarer Einfluss ökonomischer und regulatorischer Faktoren auf die Zeitabhängigkeit und so weiter. Dies zeigt deutlich den entscheidenden Einfluss des Modellrisikos im Zusammenhang mit dem OpRisk auf (und begründet somit das „Ja“ zur zweiten Frage); dennoch möchte ich betonen, dass das Modellrisiko für das Risikomanagement im Ganzen äußerst wichtig ist. Was das OpRisk anbelangt, habe ich meine Bedenken hinsichtlich des Modellrisikos wiederholt geäußert, auch gegenüber Aufsichtsbehörden und wichtigen Branchenvertretern. Ich erinnere mich noch sehr gut daran, wie RiskLab im Jahr 2005 gebeten wurde, bei der Boston Federal Reserve Bank einen einwöchigen Kurs zur Extreme Value Theory (EVT) abzuhalten; damals galt die EVT als Deus ex Machina zu Berechnung der Eigenkapitalanforderung für OpRisk. Nachdem wir die verschiedenen erforderlichen Modellbedingungen für eine EVT-basierte Schätzung hoher Quantile erläutert hatten, wurde deutlich, dass das OpRisk angesichts der uns damals bekannten Dateneigenschaften den Rahmen der Standard-EVT bei Weitem überschritt. Der Leiter der OpRisk-Abteilung der Boston Fed sagte mir daraufhin unter vier Augen: „In dem Fall wäre es gut, diese Erkenntnis möglichst bald zu verbreiten.“ Wie Recht er hatte. Ich erinnere außerdem daran, dass mir ungefähr zur selben Zeit ein britischer Risikomanager sagte, die britischen Banken würden die Verwendung der EVT bei OpRisk vermeiden, weil ich in einem Vortrag geäußert hatte, ein EVT-basierter Ansatz würde keine zufriedenstellenden Ergebnisse hervorbringen. Dieser Standpunkt wurde indirekt noch unterstützt durch eine bedeutende Publikation von Marco Moscadelli (2004), einem Manager der Banca d'Italia, der die QIS-Daten des damaligen Basler Ausschusses mithilfe der EVT analysierte und mehrere sogenannte Infinite- Mean-Modelle für die auf Geschäftsbereichsebene aggregierten Daten erhielt. Dies zeigte deutlich die statistischen Probleme auf, die sich im Zusammenhang mit OpRisk-Daten ergeben. Daraus folgt in erster Linie, dass Aufsichtsbehörden und Risikomanager angesichts der extrem schweren Ränder der Daten mehr Skepsis an den Tag legen und die Solidität der ermittelten quantitativen Werte sowie die durchgeführten Analysen ernsthaft hinterfragen sollten. Zusammen mit Valérie Chavez-Demoulin und Johanna Nešlehová verfasste ich den ersten (man könnte sagen Antritts-) Artikel für das damals (2006) neue Journal of Operational Risk, genau zu diesem Thema. Ich möchte jedoch betonen, dass gerade die EVT uns Aufschluss darüber gibt, wo wir die Grenze zwischen quantitativ erreichbaren und unerreichbaren Zielen ziehen müssen. In diesem Zusammenhang lege ich allen, die sich für operationelle Risiken interessieren, ans Herz, sich mit ähnlichen Fragestellungen im Bereich der Umweltrisiken zu beschäftigen, wie sie im sogenannten Dismal Theorem (Martin Weitzman, Harvard-Professor) zusammengefasst sind. Bei verschiedenen Gesprächen mit Fachleuten aus der Praxis habe ich diese mit der Behauptung konfrontiert, dass wir es in nicht wenigen Fällen mit einer invertierten Konstruktion zu tun haben, nach dem Motto: „Gib mir das Ergebnis, ich gebe dir das Modell (die Parameter), das zu diesem Ergebnis führt.“ Mir ist klar, dass ich hier etwas zynisch werde, aber die Komplexität der OpRisk-Daten verleitet mich zu solch kühnen Behauptungen. Allzu oft war ich Zeuge davon, wie die Feinabstimmung der Parameter nach einer anfänglichen statistischen Schätzung aufgrund eines gut gemeinten Modells zu einer lächerlich hohen Eigenkapitalanforderung geführt hat. FIRM-Redaktion: Beim Marktrisiko verbessert der Einbezug empirischer Daten die Prognose eindeutig. Aber was ist mit OpRisk, wo unsere Reaktion auf die Verluste (hoffentlich) die Verteilung künftiger Verluste verbessert? Erfordert das nicht einen anderen philosophischen Ansatz? Paul Embrechts: Zunächst einmal finde ich es – unabhängig vom regulatorischen Ansatz – absolut wichtig, dass OpRisk-Daten erfasst, eingehend überwacht und innerhalb der jeweiligen Einrichtung korrekt kommuniziert werden. Es handelt sich dabei um ein Verfahren zur Qualitätskontrolle, das sich in der produzierenden Wirtschaft schon seit etlichen Jahren bewährt hat. Sie haben außerdem absolut recht damit, dass ein datenbasiertes Vorgehen sich hoffentlich positiv auf künftige OpRisk-Verluste auswirkt und naturgemäß standardmäßige statistische Annahmen infrage stellt, die einer verlässlichen Vorhersage zukünftiger Verluste zugrunde liegen. Definitionsgemäß wird OpRisk nicht gehandelt, es gibt also keine „implizite Volatilität“ wie beim Marktrisiko, die die Stimmung „am Markt“ und verborgene Informationen misst. Interessanterweise wird diese Stimmung zunehmend durch Google-Recherchen und das Zählen spezifischer Stichwörter erfasst, die für OpRisk relevant sein könnten. FIRM-Redaktion: Apropos Daten. Meiner Meinung nach wäre es für die wissenschaftliche Forschung zum Thema OpRisk extrem förderlich, wenn ihr ein Pool anonymisierter Daten zur Verfügung gestellt würde. Was halten Sie von einer solchen Initiative, und wie ließe sie sich realisieren?

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.