Aufrufe
vor 3 Jahren

RISIKO MANAGER 10.2015

  • Text
  • Informationen
  • Unternehmen
  • Risiken
  • Risikomanagement
  • Finanzagentur
  • Banken
  • Risikokultur
  • Ziel
  • Christoph
  • Deutlich
RISIKO MANAGER ist die führende Fachzeitschrift für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen.

24 Ausgabe 10/2015

24 Ausgabe 10/2015 ditbearbeitungsprozesses mit erhoben werden, damit sie überhaupt erst für das Reporting verfügbar sind. Die Erhebung neuer Stammdaten kann dann zu Problemen führen, wenn die Daten aufgrund der 750.000 ¤-Grenze des § 18 KWG bislang noch nicht von den Kreditnehmern offengelegt wurden. Weiterführende Fragen und offene Punkte Die AnaCredit-Meldung stellt die Institute sowohl vom Umfang als auch von der Komplexität vor nicht zu unterschätzende Herausforderungen, denen sie sich frühzeitig stellen sollten. Eine besondere Rolle spielt, wie so oft in der Vergangenheit, der institutsinterne Datenhaushalt. AnaCredit zeigt, dass eine einheitliche Datenbasis aus den Bereichen Stammdaten, Risikomanagement, Bilanzierung/Rechnungswesen und Meldewesen unumgänglich ist. Die Anforderungen an den Datenhaushalt in Bezug auf Verfügbarkeit, Granularität und Qualität sind hoch. Für jedes Datenfeld ist zu klären, ob und an welcher Stelle (z. B. in der Auswertungsschicht, im Datawarehouse oder im Front Office) die Daten in der erforderlichen Granularität vorhanden sind. Während bereits in der Auswertungsschicht vorliegende Informationen für jedes angeschlossene Reporting- System, egal ob aufsichtsrechtlich oder für die interne Steuerung, verfügbar sind, kann es bei neuen Informationen, die erst noch erhoben und im Frontoffice erfasst werden müssen, aufgrund der Nacherfassung und der notwendigen Erweiterung der systemseitigen Lieferstrecken hin zu den Reporting-Systemen zu hohen Aufwänden kommen. Das zu meldende Datenvolumen wird durch AnaCredit deutlich ansteigen. Daher sind sowohl die angewendeten Methoden als auch die Performance der IT-Architektur bzw. der nachgelagerten Reporting-Systeme zu untersuchen und ggf. anzupassen. Vor diesem Hintergrund erhält das Baseler Papier BCBS 239 – Risk Data Aggregation – eine wachsende Bedeutung für die Errichtung eines integrierten Datenhaushalts. Der Rahmen der AnaCredit-Meldung steht weitestgehend jetzt schon jetzt fest, allerdings wird es bis zur endgültigen Verordnung nicht nur bei den einzelnen zu meldenden Datenattributen wohl noch Änderungen geben. Darüber hinaus gibt es derzeit noch eine Reihe von offenen Punkten, aufgrund derer noch weitere (Detail-) Regelungen zu erwarten sind. Exemplarisch sind folgende zu nennen: • Es bestehen Vorschläge, wie mit besonderen Kreditkonstellationen (z. B. Gemeinschaftskrediten, Treuhandkrediten, Konsortialkrediten oder Garantien zugunsten Dritter) umgegangen werden soll. Insbesondere vor dem Hintergrund der Gefahr der Doppelmeldungen bzw. Doppelzählungen wurde diesen Konstellationen in der Vergangenheit Beachtung geschenkt. Jedoch gibt es nach dem Informationsaustausch im März dazu noch keine endgültigen Aussagen. • In Diskussion ist auch noch, ob Auslandsfilialen eine eigenständige Meldung an die dortige Zentralbank zu liefern haben, oder ob das Mutterinstitut deren Daten in die eigene Meldung integrieren kann und befreiend auch für die Filiale meldet (Home vs. Host Prinzip). • Für die meldenden Banken wird es wohl, ähnlich wie bei der Millionenkreditmeldung, eine Art von Rückmeldung geben (Feedback-Loops). Dessen Inhalt und Turnus sind aber noch nicht festgelegt. Diese „Europäische Evidenz“ ist eher ein langfristiges Ziel, daher wird die Millionenkreditmeldung vorerst weiterhin die Funktion erfüllen müssen. Auswirkungen auf andere Meldungen Nun stellt sich zwangsläufig die Frage, wie sich AnaCredit auf den gesamten Meldeaufwand auswirkt. Die Hoffnungen, dass hierdurch nun bestehende Meldungen entfallen könnten, wurden spätestens während des Termins mit der Bundesbank Anfang März 2015 enttäuscht, da nach Aussage deren Vertreter kurzfristig keine Entlastungen bei der Meldungserstellung geplant seien. Obgleich mit AnaCredit eine europaweite Evidenz geschaffen wird, liegt eine Rücklieferung der Verschuldungsdaten analog der Evidenz aus dem Millionenkreditregime noch in weiter Ferne. Dazu kommt noch, dass eine Zusammenführung auf Kreditnehmerbasis für Privatpersonen anhand einer Referenznummer wie den LEI für Unternehmen nicht möglich sein wird. Für die nationale Evidenz muss die Bundesbank also vorerst weiterhin die Millionenkreditmeldung verwenden. Die Häuser müssen sich also darauf einstellen, AnaCredit neben allen anderen bestehenden und künftigen Anforderungen zusätzlich in ihren Meldungskatalog aufzunehmen und entsprechende Ressourcen vorhalten. q Fazit Es lässt sich festhalten, dass die europäische Finanzwelt mit AnaCredit der EZB sämtliche mit Kreditrisiko behafteten Geschäfte überstellt, sieht man einmal von der Meldeschwelle ab. Dadurch entsteht bei der Zentralbank ein Datenpool mit beeindruckendem Ausmaß. Die überstellten Daten beinhalten alle relevanten Informationen zu den Kreditnehmern, den Geschäften inklusive der Sicherheiten, den Risikoparametern und Transaktionsklassifizierungen sowie vorhandener Kreditnehmerverbünde und gebildeter Risikovorsorge. Zudem werden Informationen aus dem Workout-Prozess abgefragt. Die Frage, die sich in diesem Zusammenhang stellt, ist, was mit dieser regelmäßigen Datenflut passiert und welchen Zwecken sie dient. Die EZB wird beispielsweise in die Lage versetzt, eine umfassende Prüfung der Solvenz einer virtuellen „Europabank“ vorzunehmen. Oder sie könnte anhand der Kreditgeber-ID die Solvenzzahlen der Häuser gegeneinander abgleichen und anhand der Kreditnehmer- ID (falls diese einmal eindeutig ist) die ihr zugelieferten Risikoparameter plausibilisieren, hier insbesondere die geschätzten Ausfall- und Verlustquoten. Es ist sicher, AnaCredit wird kommen. Daher ist allen künftig Meldepflichtigen zu empfehlen, sich frühzeitig anhand der vorliegenden Informationen einen Überblick zu verschaffen, inwieweit sie die Datenanforderung derzeit bereits erfüllen und ob die gelebten Kreditprozesse ausreichend sind, um darauf Handlungsentscheidungen zu treffen. Quellenverzeichnis sowie weiterführende Literaturhinweise: Europäische Zentralbank (2014): Beschluss EZB/2014/6 der Europäischen Zentralbank vom 24.02.214 über die Organisation von Vorbereitungsmaßnahmen für die Erhebung von granularen Daten zu Krediten durch das Europäische System der Zentralbanken, ABl. Nr. L104, Seite 72. Autoren: Falko Döring, Senior Manager, SKS Unternehmensberatung GmbH & Co. KG, Bereich Regulatory Advisory. Tilman Walther, Managing Consultant, SKS Unternehmensberatung GmbH & Co. KG, Bereich Regulatory Advisory.

25 [ buchbesprechung ] Reiner Kurzhals Statistik (Wiley-Schnellkurs) Wiley-VCH Verlag, Weinheim 2015, 268 Seiten, 14,99 Euro, ISBN 978-3-527-53017-5 r Über den Sinn und Unsinn von Statistik wird seit Menschengedenken kritisch diskutiert. So wird beispielsweise der deutsche Schriftsteller Martin Kessel mit dem Satz „Die Statistik ist das Märchen der Vernunft“ zitiert. Der britische Staatsmann und erfolgreiche Romanschriftsteller Benjamin Disraeli geht einen Schritt weiter und ist davon überzeugt, dass es drei Arten von Lügen gibt: Lügen, infame Lügen und Statistiken. Häufig liegt der Grund für eine gewisse Skepsis beziehungsweise Ablehnung von statistischen Methoden an nicht vorhandenem Methodenwissen. Ein Beispiel ist die fehlerhafte Interpretation von Korrelationen und Kausalitäten. Eine hohe Korrelation zwischen zwei Variablen bedeutet nicht, dass die beiden Variablen kausal miteinander zusammenhängen. So kann beispielsweise zwischen der Storchenpopulation und Geburtenrate statistisch eine hohe Korrelation berechnet werden. Grundsätzlich könnte es sich (theoretisch) bei der Beziehung der beiden Variablen um eine Ursache-Wirkungs-Beziehung handeln. Variable A kann Ursache von B sein, oder B kann Ursache von A sein. Möglich ist aber auch, dass keines von beidem Ursache von irgendwas ist. Stattdessen existiert möglicherweise eine dritte Variable, die A und B beeinflusst hat. Dies ist in dem konkreten Beispiel die Industrialisierung, die sowohl zu einem Absinken der Geburtenrate als auch zu einer verringerten Storchenpopulation geführt hat. Der Wiley-Schnellkurs Statistik bietet auf 268 Seiten eine verständliche und praxisorientierte Einführung in die Welt der beschreibenden und schließenden Statistik. Das Buch gliedert sich in insgesamt acht Kapitel. Die ersten vier Kapitel konzentrieren sich dabei auf die deskriptive Statistik (auch beschreibende Statistik oder empirische Statistik). Mit den Methoden der deskriptiven Statistik werden quantitative Daten zu Tabellen, grafischen Darstellungen und Kennzahlen verdichtet. Die letzten vier Kapitel setzen sich hierauf aufbauend mit der induktiven Statistik (auch schließende Statistik oder Inferenzstatistik) auseinander. Die Wahrscheinlichkeitstheorie liefert die Grundlagen für die erforderlichen Schätz- und Testverfahren. Nach einer Einführung in die Grundbegriffe der Statistik (Stichprobe, Skalierung, Häufigkeitsverteilung etc.) beschäftigt sich das zweite Kapitel mit Mittelwerten und Streuwerten. Nach Durcharbeitung des Kapitels sollte der Leser wissen, bei welcher Art von Aufgabenstellung welche Kennzahlen sinnvoll angewendet werden sollten. Im dritten Kapitel dreht sich alles um Abhängigkeiten von Daten, das heißt vor allem um Korrelation und Regression. Hierbei konzentriert sich der Autor auf die gleichzeitige Analyse von zwei Merkmalen (Bivariate Analysen) und streift die Analyse von mehr als zwei Merkmalen (Multivariate Analyse) nur kurz. Das anschließende vierte Kapitel setzt sich mit Merkmalswerten auseinander, die über einen Zeitraum gemessen werden. Dies könnte beispielsweise ein Aktienindex über die Zeit sein. In dem Kapitel werden die Themen Messzahlen, Indizes, Zeitreihenanalyse, Trendbestimmung sowie Saisonbereinigung behandelt. Kapitel 5 skizziert die Grundlagen der Wahrscheinlichkeitsrechnung, das mathematische Teilgebiet der Stochastik. Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse. Das anschließende Kapitel 6 setzt sich mit Zufallsvariablen und ihren Verteilungen auseinander. Ziel der in Kapitel 7 beschriebenen statistischen Schätzverfahren ist es, die Frage zu beantworten, wie unbekannte Parameter der Grundgesamtheit aus Stichproben geschätzt werden können. Das abschließende achte Kapitel skizziert die wesentlichen statistischen Testverfahren. Ein Glossar erläutert kurz und knapp die wesentlichen Begriffe. Die vielen Beispiele unterstützen den Leser dabei, die abstrakten Formeln und Begriffe zu verstehen und deren praktische Anwendungen zu üben. Das Buch kann Einsteigern in die spannende Welt der „Methoden zum Umgang mit quantitativen Informationen“ wärmstens empfohlen werden. Vermisst habe ich lediglich weiterführende Literaturhinweise für die Leser, die das eine oder andere Thema vertiefen möchten. RISIKO MANAGER Rating: Praxisbezug: rrrrr Inhalt: rrrrq Verständlichkeit: rrrrq Gesamtwertung: rrrrr

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.