Aufrufe
vor 3 Jahren

RISIKO MANAGER 24.2015

  • Text
  • Risiko
  • Bankenaufsicht
  • Exposures
  • Banken
  • Ausschuss
  • Unternehmen
  • Deutsche
  • Versicherer
  • Verbriefungen
  • Baseler
RISIKO MANAGER ist die führende Fachzeitschrift für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen.

8 Ausgabe 24/2015

8 Ausgabe 24/2015 Calibration & Simulation: Ein derartiges Modul ermöglicht einen IPV-Run für ein Finanzinstrument zu einem Verarbeitungsdatum in der Vergangenheit und unterstützt damit zwei Anwendungsfälle: (1) Neue oder modifizierte Prüfregeln können damit vor Aktivierung getestet werden. (2) Jeder EoD-Preis kann jederzeit rückwirkend repliziert werden: wichtig zur Bearbeitung von Beanstandungen vonseiten der Preis-Konsumenten, darüber hinaus notwendig im Rahmen von Prüfungen durch interne oder externe Aufseher. Task Tracker: insbesondere Prüfungen von illiquiden Marktparametern sind wichtig, aber leider beanspruchen Analyse wie auch Fehlerbehebungsmaßnahmen viel Zeit, weshalb tägliche Checks unrealistisch sind. Stattdessen ist es sinnvoll, die Prüfung von Teilmengen in Abhängigkeit vom Exposure mit unterschiedlicher Frequenz (täglich, wöchentlich, monatlich oder vierteljährlich) vorzunehmen. Dabei sollte sichergestellt sein, dass jeder Marktparameter mindestens zweimal im Jahr geprüft wird. Das Modul errechnet automatisch den nächsten Prüftermin und präsentiert dem User täglich ein „machbares Paket“, das ein Zufallsgenerator aus Elementen der verschieden Frequenz-Gruppen zusammenstellt. Wichtig ist, dass Prüfung, Ergebnis und Konsequenzen mit Datum, Status und aussagekräftigen Erläuterungen dokumentiert werden – letzteres mit vordefinierten Texten, die gezielte Auswertungen erlauben. Nachfolgende Aktionen, wie z. B. die Suche einer geeigneteren Preisquelle oder Entwicklung einer besseren Prüfmethode, können in der Regel nicht kurzfristig umgesetzt werden, weshalb das Modul den User automatisch an die Nachverfolgung erinnert, bis der Task abgeschlossen ist. q Fazit Die Herausforderung, ein Finanzinstitut auf täglicher Basis mit einem konsistenten Set von unabhängig qualitätsgesicherten Preisen, die den Markt korrekt widerspiegeln, zu versorgen, kann mit einer Applikation bewältigt werden, die eine hoch automatisierte Verarbeitung bietet sowie generische User Interfaces, die zeitnah Anpassungen an Veränderungen der Märkte oder des Produktspektrums der Handelsbücher erlauben. Allerdings – die Implementierung eines Systems, wie oben beschrieben, hat ihren Preis. Deshalb lohnt sich ein zusammenfassender Blick auf die Vorteile. IPV Workflow Zinsprodukte Zentraler Preis-Service für die gesamte Bank: Je größer die Gruppe der User desto größer ist der Nutzen. Kompetenz-Center erzeugt einen „Preis-Pool“, der alle Abteilungen mit dem benötigten (Sub-)Set im gewünschten Format versorgt. Kapazitäten und Expertise werden an einer Stelle gebündelt, gleiche Arbeit in verschiedenen Abteilungen entfällt. Nicht nur das Fair Value Measurement wird unterstützt, das System liefert auch Input für weitere Aufgaben wie die Fair Value Hierarchy Classification oder das Fair Value Adjustment. Der IPV kann darüber hinaus während des Tages (außerhalb des MD-EoD) beliebig oft ausgeführt werden und damit laufend Market Conformity Checks mit den geforderten Preisen „nahe Handelszeit“ versorgen. Eine hoch automatisierte IT-Applikation erhöht die Produktivität der Marktdaten- t Abb. 01 Experten. Es ersetzt die (weitverbreiteten) zeitintensiven (halb-)manuellen Excel-basierten Prüfungen und verschafft den Mitarbeitern den erforderlichen Spielraum, sich eingehend mit den Problemen zu beschäftigen, die komplexe Finanzprodukte und illiquide Marktparameter verursachen. Und nicht zu vergessen: Der Bezug von Marktdaten ist teuer. Darum ist eine regelmäßige Prüfung der Lieferanten wichtig. Das tägliche Contributor-Scoring ermöglicht es, die wirklichen „Good Contributors“ pro Marktparameter zu identifizieren und die Verträge hinsichtlich Lieferanten und des bezogenen Produktspektrums zu optimieren. Autoren: Dorothee Hockel, Vice President Market Data and Valuations, UniCredit Bank AG. Yvan Robert, CFA, Senior Principal, Accenture GmbH.

9 [ buchbesprechung ] Jürgen Faik Statistik für Wirtschafts- und Sozialwissenschaftler Wiley Verlag, Weinheim 2015, 412 Seiten, 19,99 Euro, ISBN 978-3-527-53038-0. r Empirische Informationen und damit statistisches Wissen sind im Grunde genommen für alle Lebensbereiche essenziell, schreibt der Autor in seiner Einleitung. Ohne Daten ist keine Überprüfung bestehender Theorien, sozusagen kein „Lackmustest“ an der Realität möglich. Dies gilt selbstverständlich auch für die Wirtschafts- und Sozialwissenschaften. Gerade hier erscheint das frühere Vorgehen „Theory without measurement“ völlig fehl am Platz. Wenn man etwa beurteilen möchte, ob sich die Konsumgewohnheiten beziehungsweise Lebensstile der unteren Einkommensschichten substanziell von denjenigen der oberen Einkommensschichten unterscheiden, kann man sich nicht – wie in der „reinen“ Mathematik – auf definitorische Zusammenhänge verlassen, sondern es bedarf der empirischen Überprüfung von Hypothesen, so der Autor weiter. Historisch betrachtet, ist die Statistik schon in der Antike vor allem durch Volkszählungen in Erscheinung getreten. Im 18./19. Jahrhundert wurde Statistik als Staatswissenschaft verstanden, die überwiegend als beschreibende Statistik im Sinne der Erörterung von für den Staatshaushalt wichtigen Tatbeständen (wie Steuerbemessungsgrundlagen) betrieben wurde. Elemente der Wahrscheinlichkeitsrechnung kamen zudem im Spätmittelalter beziehungsweise in der frühen Neuzeit auf, und zwar im Zusammenhang mit der Analyse von Glücksspielen. Es wurden etwa für das Roulettespiel Gewinnwahrscheinlichkeiten berechnet. Dies diente dem Ziel, möglichst optimale Erfolgsstrategien für möglichst große individuelle Gewinne zu finden. In einführenden ersten Teil werden die statistischen Grundlagen – sozusagen als „Warm up“ – auf einer eher allgemeinen Ebene dargeboten. So erfährt der Leser die Unterschiede zwischen deskriptiver und induktiver Statistik sowie Ökonometrie. Außerdem werden einige statistische Einheiten vorgestellt. Das zweite Kapitel dreht sich um die Erhebung statistischer Daten. Die Daten können entweder als Vollerhebung beziehungsweise als Teilerhebung (Stichprobe) oder in Bezug auf einen bestimmten Zeitpunkt (Querschnitt) beziehungsweise einen bestimmten Zeitraum (Längsschnitt) erfolgen. Außerdem kann es sich um qualitative oder quantitative Daten handeln. Das anschließende dritte Kapitel beschäftigt sich schließlich mit der Datenauswertung. Die Kapitel 4 bis 11 konzentrieren sich auf die deskriptive Statistik. Ausgehend von ein- und beziehungsweise mehrdimensionalen Häufigkeitsverteilungen (mit entsprechenden statistischen Kennziffern), wird das Themenfeld der Verhältnisund Indexzahlen (unter anderem in Form von Preis- und Mengenindizes) besprochen. Betrachtungen zur Zeitreihenanalyse runden die Themeninhalte zur deskriptiven Statistik ab. Die anschließenden Kapitel 12 bis 17 setzen sich mit der induktiven Statistik auseinander. Hierfür werden zunächst die Grundlagen der Wahrscheinlichkeitsrechnung dargestellt. Hierauf aufbauend und nach Klärung des zentralen Begriffs der Zufallsvariablen, wird auf ausgewählte statistische Verteilungen (beispielsweise auf die Binomial-, die hypergeometrische und die Normalverteilung) eingegangen. Der letzte Abschnitt endet mit Ausführungen zur Schätz- und Testtheorie, die für etwaige eigenständige empirische Arbeiten besonders wichtig sind. Besonders praktisch sind die Übungsaufgaben am Ende eines jeden Kapitels sowie die kompakten Infoboxen „Auf einen Blick“. Im Anhang sind neben den Lösungsskizzen die wesentlichen Begriffe in Form eines Glossars sowie eine Formelsammlung zu finden. In den „Achtung-Boxen“ wird der Leser auf potenzielle Fallen und Fallstricke hingewiesen. Statistik ist ein komplexes Thema, aber es muss nicht unbedingt kompliziert erklärt werden. Dies beweist Jürgen Faik mit seinem Lehrbuch. Als mathematisches Vorwissen genügen die „Basics“, die jeder Schüler in der Schule gelernt hat. Das kompakte Buch kann als gut verständliche und solide Einführung in die spannende Welt der deskriptiven und induktiven Statistik uneingeschränkt empfohlen werden. Hierbei ist besonders hervorzugehen, dass zwei Wissenschaftsbereiche – nämlich die Wirtschafts- und die Sozialwissenschaften – in einem Statistik- Lehrbuch dargestellt werden. RISIKO MANAGER Rating: Praxisbezug: rrrrr Inhalt:qrrrr Verständlichkeit: qrrrrGesamtwertung: qrrrr

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.