Aufrufe
vor 3 Jahren

RISIKO MANAGER 10.2016

  • Text
  • Modell
  • Anforderungen
  • Treasury
  • Risiko
  • Risikomanagement
  • Marisk
  • Insbesondere
  • Verteidigungslinie
  • Modelle
  • Institute
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

14

14 RISIKO MANAGER 10|2016 tätskriterien dadurch tatsächlich abgedeckt werden, hängt dabei immer auch von ihrer konkreten Ausformulierung und Implementierung ab. Die Umsetzung des in AT 4.3.4 MaRisk gelisteten Anforderungskatalogs ist gleichbedeutend mit weitreichenden konzeptionellen und operativen Anpassungen der bisher gängigen Praxis des Datenmanagements und der Risikodatenaggregation. Eine strukturierte und detaillierte Ausgestaltung eines entsprechenden Prüfgrößenkatalogs auf Basis der in Tab. 01 zusammengefassten Prüfthemen ermöglicht zunächst die Durchführung von Self-Assessments hinsichtlich des Umsetzungsstands der Anforderungen der MaRisk in Form von Checklisten. Derart werden nicht nur Fehler und Auslassungen bei der Implementierung – und das damit einhergehende regulatorische und finanzielle Risiko – minimiert. Zudem können über die Einführung geeigneter Metriken die Prüfgrößen direkt in Key Controls umgewandelt und so der aktuelle Stand der Umsetzung der Anforderungen im Zeitablauf verfolgt werden. Damit ist zugleich der Grundstein für eine weitgehend automatisierte und wiederkehrende Datenqualitätsüberprüfung und -optimierung (Datenprofiling, Datenstandardisierung und Bereinigung, Datenüberwachung und Kontrolle) gelegt [vgl. BITKOM (2014), S. 98.]. Zusammenfassung und Ausblick Wie die Analyse des neuen Anforderungskatalogs in Abschnitt AT 4.3.4 der MaRisk-Novelle zeigt, sehen sich große und komplexe Institute kurzfristig mit einem beträchtlichen Mehraufwand hinsichtlich der Herstellung und Aufrechterhaltung der Datenqualität zur Erreichung einer entsprechenden Ma- Risk-Compliance konfrontiert. Dieser Mehraufwand wird erst im Kontext einer brauchbaren Definition von Datenqualität sichtbar, die es erlaubt, entsprechende Self-Assessments für die Institute zu entwickeln. Hinreichend relevante und ausdifferenzierte Kontrollen können dabei helfen, Mindeststandards der Datenqualität einzuhalten und eine revisionssichere, flächendeckende und detaillierte Implementierung der gesetzlichen und regulatorischen Anforderungen institutsweit und zeitnah sicherzustellen. Dies gilt insbesondere im Fall des Outsourcings bankfachlicher Prozesse an Service-Provider. Da jedes Institut über fundierte Kenntnisse und Erfahrungen verfügen muss, die bei Beendigung des Auslagerungsverhältnisses oder Änderungen der Gruppenstruktur einen ordnungsmäßigen Betrieb sicherstellen, sind zielgerichtete und präventive Prüfprozesse notwendig, die die Prozess- und Datenqualität auch im Fall von Auslagerungen nachhaltig gewährleisten. Entsprechend definierte Key Controls machen nicht nur die Schnittstellen zwischen der Inhouse-Bereitstellung und dem Outsourcing an Dienstleister sichtbar. Gleichzeitig bilden sie Checkpoints, über die bei Abweichungen von Mindestqualitätsstandards und Soll-Prozessen institutsintern sowie -extern frühzeitig korrigierend eingegriffen werden kann. Mittel- und langfristig werden die aus einer gelungenen Umsetzung der Anforderungen aus AT 4.3.4 MaRisk resultierenden Datenpools und Analyseoptionen zu Mehrwerten für die Institute führen, die nicht nur die Risikosteuerung erheblich erleichtern werden, sondern auch den kurzfristig anfallenden Mehraufwand legitimieren sollten. In einem Folgeartikel wird das hier skizzierte Konzept zur Prüfung der Datenqualität vertieft und seine Relevanz für die risikoorientierte Unternehmenssteuerung untermauert. Quellenverzeichnis und weiterführende Literatur: Apel, D./Behme, W./Eberlein, R. et al. (2015): Datenqualität erfolgreich steuern: Praxislösungen für Business-Intelligence-Projekte, 3. Auflage, Heidelberg: dpunkt, 2015. Basler Ausschuss für Bankenaufsicht (2013): Grundsätze für die effektive Aggregation von Risikodaten, Januar 2013. Basler Ausschuss für Bankenaufsicht (2013b): Progress in adopting the principles for effective risk data aggregation and risk reporting, Dezember 2013. Basler Ausschuss für Bankenaufsicht (2015): Progress in adopting the principles for effective risk data aggregation and risk reporting, Januar 2015. BITKOM (2014): Big-Data-Technologien – Wissen für Entscheider, Berlin: Eigenverlag, 2014. Bundesanstalt für Finanzdienstleistungsaufsicht (2016): Bundesanstalt für Finanzdienstleistungsaufsicht: Konsultation 02/2016: Entwurf der MaRisk in der Fassung vom 18.02.2016, http://www.bafin.de/SharedDocs/Downloads/DE/Konsultation/2016/dl_kon_0216_marisk_2016. pdf?__blob=publicationFile&v=2, abgerufen am 01.08.2016. Golla, G./Hoppe, T./Pastwa, A. (2014): Risk Data Aggregation (RDA). RDA-Umsetzung auf Basis von Business Intelligence (BI), in: BCBS 239. Regulatorische Anforderungen und effiziente Umsetzung, hrsg. von Wilhelm Niehoff / Stefan Hirschmann, Köln 2014, S. 29-41. Golla, G./Hoppe, T./Pastwa, A. (2014): Umsetzung einer leistungsfähigen Reportingplattform und künftige Aufgaben für das Datenmanagement, in: RISIKO MANAGER, Nr. 25-26 / 2014, S. 35-38. Golla, G./Hoppe, T./Pastwa, A. (2015): Risk Data Aggregation (RDA) – Teil III: BCBS #239 – Datenqualitätssicherung und Frühwarnung, in: RISIKO MANAGER, Nr. 6 /2015, S. 12-16. Gabriel, R./Golla, G./Hoppe, T. et al. (2009): Business Intelligence als Enabler des Basel II-Berichtswesens – Auswirkungen der Offenlegungspflichten gemäß Säule III des Baseler Frameworks für den Einsatz eines Reporting-Systems, in: Controlling – Zeitschrift für erfolgsorientierte Unternehmenssteuerung, Nr. 10 / 2009, S. 538-544. Golla, G./Hoppe, T./Pastwa, A. et al. (2014): Risk Data Aggregation (RDA). Umsetzung auf Basis von Business Intelligence (BI), in: RISIKO MANAGER, Nr. 8 / 2014, S. 14-19. Golla, G./Pastwa, A./Rosenbauer, K. (2015): Risk Data Aggregation (RDA) – Teil IV: BCBS #239 – Umsetzung und Anwendung der Prinzipien 2015/2016, in: RISIKO MANAGER, Nr. 22 / 2015, S. 15-17. Golla, G./Pastwa, A./Rosenbauer, K. (2016): Outsourcing von bankfachlichen Prozessen – Monitoring der Datenqualität in einem zentralisierten Berichtswesen, in: RISIKO MANAGER, Nr. 6 / 2016, S. 22-25. Hofer, M. (2016): Risikomanagement: BaFin konsultiert überarbeitete MaRisk für Banken, in: BaFin Journal, Nr. 4 /2016, S. 16-19. Hillen, K.-H./Hartmann, U./Hosemann, D. (Hrsg.): Neue regulatorische Offenlegungspflichten für Kreditinstitute: Qualitative und quantitative SolvV-Vorgaben. Umsetzungshinweise – Interne/externe Prüfungen, Heidelberg: Finanz-Colloquium, 2008. Autoren: Dr. Uwe Fingerlos, Senior Consultant, Deloitte GmbH. Dr. Guido Golla, Director, Deloitte GmbH. Dr. Alexander Pastwa, Senior Manager, Deloitte GmbH.

Regulierung 15

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.