Aufrufe
vor 6 Jahren

RISIKO MANAGER 06.2015

  • Text
  • Unternehmen
  • Gleichung
  • Informationen
  • Portfolio
  • Deutschen
  • Deutsche
  • Hierbei
  • Risikomanagement
  • Website
  • Modellierung
RISIKO MANAGER ist die führende Fachzeitschrift für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen.

12 Ausgabe 06/2015 Risk

12 Ausgabe 06/2015 Risk Data Aggregation (RDA) – Teil III BCBS #239 – Frühwarnung und Datenqualitätssicherung Der vorliegende Beitrag setzt auf die in Ausgabe 25-26 (2014) des RISIKO MANAGER vorgestellten Konzepte und Methoden auf, die angewendet werden müssen, um die Prinzipien der Risk Data Aggregation (RDA) datenseitig zu realisieren. Im Folgenden wird dargestellt, welche zusätzlichen Berichtkapazitäten im Sinn der Anforderungen aus BCBS #239 als risikorelevant anzusehen sind, und wie sich diese unter Einsatz marktgängiger Business-Intelligence-Lösungen umsetzen lassen. Vorgestellt werden Berichte, die bisher nicht im aufsichtlichen Fokus gestanden haben und daher die Institute vor gänzlich neue Herausforderungen stellen. Dazu gehört insbesondere die Implementierung von Berichten zur regelmäßigen strukturierten Datenqualitätssicherung sowie zur Frühwarnung. Bericht zur regelmäßigen strukturierten Datenqualitätssicherung Die Aufsichtsinstanzen erwarten von den Banken, dass sie die Genauigkeit risikorelevanter Daten ermitteln und laufend überwachen. Ferner werden angemessene Eskalationswege sowie Maßnahmenpakete verlangt, um die Datenqualität im Zeitablauf zu verbessern. Im Rahmen der strukturierten Datenqualitätssicherung stehen drei Hauptziele im Vordergrund: Schaffung von Transparenz, Langfristige Sicherstellung der Datenqualität sowie Sicherstellung von schnellen Reaktionszeiten. Zur Erreichung dieser Ziele müssen einerseits alle relevanten Informationen zur Datenqualitätsprüfung in einem zentralen Prüfkern zusammengeführt werden, in dem die Daten nach technischen und inhaltlichen Kriterien geprüft werden. Andererseits müssen die Ergebnisse dieser Prüfungen in einem Datenqualitätsbericht zusammengefasst und veranschaulicht werden. Darüber hinaus sollte in Form einer Data Quality Scorecard der aktuelle Zustand der relevanten Schnittstellen einsehbar sein. Mithilfe der Scorecard soll es bedarfsweise möglich sein, proaktiv Benachrichtigungen an das Datenqualitätsmanagement zu versenden, sofern bestimmte Grenzwerte bei der Verarbeitung risikorelevanter Daten über- oder unterschritten werden. Prüfkern Der Prüfkern übernimmt die zentrale Qualitätsprüfung der Daten aus den unterschiedlichen Quellsystemen, bevor sie in die zentrale Risikodatenbank geladen werden. Der Prüfkern stellt sicher, dass ausschließlich qualitätsgesicherte und konsistente Daten in der zentralen Risikodatenbank abgelegt und historisiert werden. Die Einhaltung der Datenqualität umfasst technische und inhaltliche Prüfschritte sowie Prüfungen, die auf die Compliance ausgerichtet sind. • Technische Prüfungen Dieser Prüfschritt zielt auf die technische Beschaffenheit der zu beladenden Daten ab und kann in mehrere separate Prüfschritte unterteilt werden. Im Rahmen einer Formatprüfung werden die aus den Quellsystemen gelieferten Daten formatseitig überprüft und ggf. an die Formate der zentralen Risikodatenbank angepasst. Eine Mengenprüfung hebt auf die Vollständigkeit der verarbeiteten Daten aus den Quellsystemen ab. Hierbei lassen sich Mengendifferenzen zwischen den Quellsystemen und den Zieltabellen in der Risikodatenbank durch die Bildung von (komplexen) Prüfsummen ermitteln. Die Überprüfung der in den Master-Tabellen hinterlegten Mapping- bzw. Aggregations- Definitionen der konsolidierten Risikodatenbank wird innerhalb der Mappingprüfung vorgenommen. Hierbei wird einerseits die korrekte Verarbeitung innerhalb der Datenbeladung kontrolliert, anderseits ist eine Prüfung der Mappingregeln mit Algorithmen außerhalb der Datenbankumgebung vorstellbar, um Seiteneffekte innerhalb der ETL-Komponente auszuschließen. Unter die technischen Prüfungen fallen ebenso die Überwachung der Aktualisierungszyklen und Beladezeiten sowie die Sicherstellung einer persistenten Historisierung der Daten, beispielsweise durch laufende Vergleiche der Zeitstempel. • Inhaltliche Prüfungen Inhaltliche Prüfungen verhindern die Weitergabe nicht plausibler Daten in die zentrale Risikodatenbank. Die aus verschiedenen Quellsystemen stammenden Datensätze werden hinsichtlich Aggregationsgrad sowie Zuordenbarkeit zu den fachlich vorgegebenen Drill-Down-Ebenen innerhalb der Berichte überprüft. Bei der Beladung der Zieltabellen findet eine Analyse von Duplikaten auf Datensatzebene statt. Auf Feldebene wird das Vorhandensein von Werten für sogenannte Mussfelder kontrolliert. Ferner erfolgt eine Prüfung von NULL-Feldern sowie von Negativwerten bei Feldern, in denen Positivwerte erwartet werden. Signifikante Abweichungen gegenüber historisierten Daten stellen ein weiteres Indiz für eine nicht plausible Datenanlieferung dar. Durch die Ermittlung von Bandbreiten, in denen sich die zu importierenden Daten bewegen dürfen, lassen sich Werte identifizieren, die beispielsweise durch Falscheingaben oder Zahlendreher entstanden sind. Diese Bandbreiten stellen ein weiteres Instrument zur Sicherstellung der Datenqualität dar. • Compliance-Prüfungen Durch die in Kapitel IV zusammengefassten Grundsätze aus BCBS #239 (Aufsichtliche Überprüfungen, Instrumente und Zusammenarbeit) werden die Kreditinstitute dazu angehalten, den Aufsichtsinstanzen geeignete Instrumente zur Überprüfung ihrer Datenaggregationskapazitäten sowie geeignete Verfahren zur Risikoberichterstattung an die Hand zu geben [Baseler Ausschuss für Bankenaufsicht (2013),

13 Datenqualitätsprüfung (Data Quality Scorecard) t Abb. 01

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.