Aufrufe
vor 3 Jahren

RISIKO MANAGER 24.2015

  • Text
  • Risiko
  • Bankenaufsicht
  • Exposures
  • Banken
  • Ausschuss
  • Unternehmen
  • Deutsche
  • Versicherer
  • Verbriefungen
  • Baseler
RISIKO MANAGER ist die führende Fachzeitschrift für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen.

8 Ausgabe 24/2015

8 Ausgabe 24/2015 Calibration & Simulation: Ein derartiges Modul ermöglicht einen IPV-Run für ein Finanzinstrument zu einem Verarbeitungsdatum in der Vergangenheit und unterstützt damit zwei Anwendungsfälle: (1) Neue oder modifizierte Prüfregeln können damit vor Aktivierung getestet werden. (2) Jeder EoD-Preis kann jederzeit rückwirkend repliziert werden: wichtig zur Bearbeitung von Beanstandungen vonseiten der Preis-Konsumenten, darüber hinaus notwendig im Rahmen von Prüfungen durch interne oder externe Aufseher. Task Tracker: insbesondere Prüfungen von illiquiden Marktparametern sind wichtig, aber leider beanspruchen Analyse wie auch Fehlerbehebungsmaßnahmen viel Zeit, weshalb tägliche Checks unrealistisch sind. Stattdessen ist es sinnvoll, die Prüfung von Teilmengen in Abhängigkeit vom Exposure mit unterschiedlicher Frequenz (täglich, wöchentlich, monatlich oder vierteljährlich) vorzunehmen. Dabei sollte sichergestellt sein, dass jeder Marktparameter mindestens zweimal im Jahr geprüft wird. Das Modul errechnet automatisch den nächsten Prüftermin und präsentiert dem User täglich ein „machbares Paket“, das ein Zufallsgenerator aus Elementen der verschieden Frequenz-Gruppen zusammenstellt. Wichtig ist, dass Prüfung, Ergebnis und Konsequenzen mit Datum, Status und aussagekräftigen Erläuterungen dokumentiert werden – letzteres mit vordefinierten Texten, die gezielte Auswertungen erlauben. Nachfolgende Aktionen, wie z. B. die Suche einer geeigneteren Preisquelle oder Entwicklung einer besseren Prüfmethode, können in der Regel nicht kurzfristig umgesetzt werden, weshalb das Modul den User automatisch an die Nachverfolgung erinnert, bis der Task abgeschlossen ist. q Fazit Die Herausforderung, ein Finanzinstitut auf täglicher Basis mit einem konsistenten Set von unabhängig qualitätsgesicherten Preisen, die den Markt korrekt widerspiegeln, zu versorgen, kann mit einer Applikation bewältigt werden, die eine hoch automatisierte Verarbeitung bietet sowie generische User Interfaces, die zeitnah Anpassungen an Veränderungen der Märkte oder des Produktspektrums der Handelsbücher erlauben. Allerdings – die Implementierung eines Systems, wie oben beschrieben, hat ihren Preis. Deshalb lohnt sich ein zusammenfassender Blick auf die Vorteile. IPV Workflow Zinsprodukte Zentraler Preis-Service für die gesamte Bank: Je größer die Gruppe der User desto größer ist der Nutzen. Kompetenz-Center erzeugt einen „Preis-Pool“, der alle Abteilungen mit dem benötigten (Sub-)Set im gewünschten Format versorgt. Kapazitäten und Expertise werden an einer Stelle gebündelt, gleiche Arbeit in verschiedenen Abteilungen entfällt. Nicht nur das Fair Value Measurement wird unterstützt, das System liefert auch Input für weitere Aufgaben wie die Fair Value Hierarchy Classification oder das Fair Value Adjustment. Der IPV kann darüber hinaus während des Tages (außerhalb des MD-EoD) beliebig oft ausgeführt werden und damit laufend Market Conformity Checks mit den geforderten Preisen „nahe Handelszeit“ versorgen. Eine hoch automatisierte IT-Applikation erhöht die Produktivität der Marktdaten- t Abb. 01 Experten. Es ersetzt die (weitverbreiteten) zeitintensiven (halb-)manuellen Excel-basierten Prüfungen und verschafft den Mitarbeitern den erforderlichen Spielraum, sich eingehend mit den Problemen zu beschäftigen, die komplexe Finanzprodukte und illiquide Marktparameter verursachen. Und nicht zu vergessen: Der Bezug von Marktdaten ist teuer. Darum ist eine regelmäßige Prüfung der Lieferanten wichtig. Das tägliche Contributor-Scoring ermöglicht es, die wirklichen „Good Contributors“ pro Marktparameter zu identifizieren und die Verträge hinsichtlich Lieferanten und des bezogenen Produktspektrums zu optimieren. Autoren: Dorothee Hockel, Vice President Market Data and Valuations, UniCredit Bank AG. Yvan Robert, CFA, Senior Principal, Accenture GmbH.

9 [ buchbesprechung ] Jürgen Faik Statistik für Wirtschafts- und Sozialwissenschaftler Wiley Verlag, Weinheim 2015, 412 Seiten, 19,99 Euro, ISBN 978-3-527-53038-0. r Empirische Informationen und damit statistisches Wissen sind im Grunde genommen für alle Lebensbereiche essenziell, schreibt der Autor in seiner Einleitung. Ohne Daten ist keine Überprüfung bestehender Theorien, sozusagen kein „Lackmustest“ an der Realität möglich. Dies gilt selbstverständlich auch für die Wirtschafts- und Sozialwissenschaften. Gerade hier erscheint das frühere Vorgehen „Theory without measurement“ völlig fehl am Platz. Wenn man etwa beurteilen möchte, ob sich die Konsumgewohnheiten beziehungsweise Lebensstile der unteren Einkommensschichten substanziell von denjenigen der oberen Einkommensschichten unterscheiden, kann man sich nicht – wie in der „reinen“ Mathematik – auf definitorische Zusammenhänge verlassen, sondern es bedarf der empirischen Überprüfung von Hypothesen, so der Autor weiter. Historisch betrachtet, ist die Statistik schon in der Antike vor allem durch Volkszählungen in Erscheinung getreten. Im 18./19. Jahrhundert wurde Statistik als Staatswissenschaft verstanden, die überwiegend als beschreibende Statistik im Sinne der Erörterung von für den Staatshaushalt wichtigen Tatbeständen (wie Steuerbemessungsgrundlagen) betrieben wurde. Elemente der Wahrscheinlichkeitsrechnung kamen zudem im Spätmittelalter beziehungsweise in der frühen Neuzeit auf, und zwar im Zusammenhang mit der Analyse von Glücksspielen. Es wurden etwa für das Roulettespiel Gewinnwahrscheinlichkeiten berechnet. Dies diente dem Ziel, möglichst optimale Erfolgsstrategien für möglichst große individuelle Gewinne zu finden. In einführenden ersten Teil werden die statistischen Grundlagen – sozusagen als „Warm up“ – auf einer eher allgemeinen Ebene dargeboten. So erfährt der Leser die Unterschiede zwischen deskriptiver und induktiver Statistik sowie Ökonometrie. Außerdem werden einige statistische Einheiten vorgestellt. Das zweite Kapitel dreht sich um die Erhebung statistischer Daten. Die Daten können entweder als Vollerhebung beziehungsweise als Teilerhebung (Stichprobe) oder in Bezug auf einen bestimmten Zeitpunkt (Querschnitt) beziehungsweise einen bestimmten Zeitraum (Längsschnitt) erfolgen. Außerdem kann es sich um qualitative oder quantitative Daten handeln. Das anschließende dritte Kapitel beschäftigt sich schließlich mit der Datenauswertung. Die Kapitel 4 bis 11 konzentrieren sich auf die deskriptive Statistik. Ausgehend von ein- und beziehungsweise mehrdimensionalen Häufigkeitsverteilungen (mit entsprechenden statistischen Kennziffern), wird das Themenfeld der Verhältnisund Indexzahlen (unter anderem in Form von Preis- und Mengenindizes) besprochen. Betrachtungen zur Zeitreihenanalyse runden die Themeninhalte zur deskriptiven Statistik ab. Die anschließenden Kapitel 12 bis 17 setzen sich mit der induktiven Statistik auseinander. Hierfür werden zunächst die Grundlagen der Wahrscheinlichkeitsrechnung dargestellt. Hierauf aufbauend und nach Klärung des zentralen Begriffs der Zufallsvariablen, wird auf ausgewählte statistische Verteilungen (beispielsweise auf die Binomial-, die hypergeometrische und die Normalverteilung) eingegangen. Der letzte Abschnitt endet mit Ausführungen zur Schätz- und Testtheorie, die für etwaige eigenständige empirische Arbeiten besonders wichtig sind. Besonders praktisch sind die Übungsaufgaben am Ende eines jeden Kapitels sowie die kompakten Infoboxen „Auf einen Blick“. Im Anhang sind neben den Lösungsskizzen die wesentlichen Begriffe in Form eines Glossars sowie eine Formelsammlung zu finden. In den „Achtung-Boxen“ wird der Leser auf potenzielle Fallen und Fallstricke hingewiesen. Statistik ist ein komplexes Thema, aber es muss nicht unbedingt kompliziert erklärt werden. Dies beweist Jürgen Faik mit seinem Lehrbuch. Als mathematisches Vorwissen genügen die „Basics“, die jeder Schüler in der Schule gelernt hat. Das kompakte Buch kann als gut verständliche und solide Einführung in die spannende Welt der deskriptiven und induktiven Statistik uneingeschränkt empfohlen werden. Hierbei ist besonders hervorzugehen, dass zwei Wissenschaftsbereiche – nämlich die Wirtschafts- und die Sozialwissenschaften – in einem Statistik- Lehrbuch dargestellt werden. RISIKO MANAGER Rating: Praxisbezug: rrrrr Inhalt:qrrrr Verständlichkeit: qrrrrGesamtwertung: qrrrr

RISIKO MANAGER

RISIKO MANAGER 01.2019
RISIKO MANAGER 02.2019
RISIKO MANAGER 03.2019
RISIKOMANAGER_04.2019
RISIKO MANAGER 05.2019
RISIKO MANAGER 06.2019
RISIKO MANAGER_07.2019
RISIKO MANAGER 08.2019
RISIKO MANAGER 09.2019
RISIKO MANAGER 10.2019
RISIKO MANAGER 01.2018
RISIKO MANAGER 02.2018
RISIKO MANAGER 03.2018
RISIKO MANAGER 04.2018
RISIKO MANAGER 05.2018
RISIKO MANAGER 06.2018
RISIKO MANAGER 07.2018
RISIKO MANAGER 08.2018
RISIKO MANAGER 09.2018
RISIKO MANAGER 10.2018
RISIKO MANAGER 01.2017
RISIKO MANAGER 02.2017
RISIKO MANAGER 03.2017
RISIKO MANAGER 04.2017
RISIKO MANAGER 05.2017
RISIKO MANAGER 06.2017
RISIKO MANAGER 07.2017
RISIKO MANAGER 08.2017
RISIKO MANAGER 09.2017
RISIKO MANAGER 10.2017
RISIKO MANAGER 01.2016
RISIKO MANAGER 02.2016
RISIKO MANAGER 03.2016
RISIKO MANAGER 04.2016
RISIKO MANAGER 05.2016
RISIKO MANAGER 06.2016
RISIKO MANAGER 07.2016
RISIKO MANAGER 08.2016
RISIKO MANAGER 09.2016
RISIKO MANAGER 10.2016
RISIKO MANAGER 01.2015
RISIKO MANAGER 02.2015
RISIKO MANAGER 03.2015
RISIKO MANAGER 04.2015
RISIKO MANAGER 05.2015
RISIKO MANAGER 06.2015
RISIKO MANAGER 07.2015
RISIKO MANAGER 08.2015
RISIKO MANAGER 09.2015
RISIKO MANAGER 10.2015
RISIKO MANAGER 11.2015
RISIKO MANAGER 12.2015
RISIKO MANAGER 13.2015
RISIKO MANAGER 15-16.2015
RISIKO MANAGER 17.2015
RISIKO MANAGER 18.2015
RISIKO MANAGER 19.2015
RISIKO MANAGER 20.2015
RISIKO MANAGER 21.2015
RISIKO MANAGER 22.2015
RISIKO MANAGER 23.2015
RISIKO MANAGER 24.2015
RISIKO MANAGER 25-26.2015
 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.