Aufrufe
vor 13 Monaten

RISIKO MANAGER 10.2019

  • Text
  • Banken
  • Informationen
  • Beispielsweise
  • Parameter
  • Historical
  • Blockchain
  • Schadenanzahl
  • Unternehmen
  • Risiken
  • Risiko
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

46

46 RISIKO MANAGER 10|2019 Abb. 03 Punktschätzung für die durchschnittliche Schadenanzahl λ wird zur A-priori-Verteilung der Zufallsgröße λ 100 % Plausibilität wird durch Wahrscheinlichkeiten ausgedrückt Zu 100 % glauben wir, dass die durchschnittliche Schadenanzahl 1,7 beträgt „auf den Punkt genaue“ Schätzung für λ „plausible“ Werte für λ unter Anwendung eines Risikomaßes auf die Gesamtschadenverteilung. Alle drei Schritte sind zur vollständigen Quantifizierung notwendig. Die Methoden der Bayesschen Statistik kommen erst im zweiten Schritt der Gesamtrisikomodellierung zur Anwendung. Im weiteren Verlauf wird daher vorausgesetzt, dass eine adäquate Verteilungsklasse für die Submodelle identifiziert wurde, und nun die Parametrisierung des Gesamtrisikomodells durch konkrete Werte für die Verteilungsparameter λ, μ und σ² erfolgt. Wie bereits die Interpretation der jeweiligen Parameter aufzeigt, handelt es sich bei den Verteilungsparametern in der Regel um nicht direkt messbare, unbekannte Größen. Die Herleitung der Modellparameter hängt wesentlich von der vorhandenen Datengrundlage ab. Der Parameter λ, aufgefasst als durchschnittliche jährliche Anzahl von Oberleitungsausfällen, kann folgendermaßen bestimmt werden: 1. Sofern eine ausreichend lange Historie der jährlichen Anzahl von Oberleitungsausfällen vorliegt – in der Statistik spricht man von einer repräsentativen Zufallsstichprobe der Zufallsgröße „Schadenanzahl“ – kann mit den Methoden der klassischen Statistik die durchschnittliche Schadenanzahl geschätzt werden. 2. Im Rahmen der Expertenbefragung schätzt der Betriebsleiter die durchschnittliche Anzahl von Oberleitungsschäden auf den Wert 1,7 pro Jahr. Parameterunsicherheiten in der Risikomodellierung – ein Metarisiko Die Parametrisierung des Gesamtrisikomodells birgt bei der subjektiven Schätzung durch den Betriebsleiter offensichtlich Unsicherheiten. Aber auch die Schätzung aus einer großen Datenmenge kann zu Scheingenauigkeiten führen. Nachfolgend werden mögliche Ursachen für die Unsicherheiten erläutert, die im Rahmen der Parametrisierung des Gesamtrisikomodells eintreten können. Die Grundlage für die Anwendung statistischer Risikomesskonzepte bildet eine Stichprobe von beobachteten Werten. Mit statistischen Methoden wird aus der Stichprobe auf die Grundgesamtheit geschlossen. Beispielsweise wird anhand der statistischen Analyse der jährlichen Vergangenheitswerte für die Schadenanzahl sowohl auf die durchschnittliche jährliche Anzahl von Oberleitungsschäden λ als auch auf die unbekannte Wahrscheinlichkeitsverteilung der Schadenanzahl geschlossen. Gibt es wesentliche Unterschiede zwischen der Datenstruktur und der Struktur der Grundgesamtheit – sind die historischen Daten nicht stellvertretend für die Grundgesamtheit – so ist die Repräsentativität der Stichprobe verletzt. Die vergangenen Werte für die jährliche Anzahl der Oberleitungsschäden sind nicht repräsentativ, wenn beispielsweise das Schienen- und damit das Oberleitungsnetz im Rahmen eines mehrjährigen Projekts kontinuierlich um mehrere Kilometer ausgebaut wird und seit Kurzem eine durch LKWs stark frequentierte Straße kreuzt. Folglich erhöht sich sukzessive die Anzahl der jährlich gezählten Oberleitungsschäden. Die Schätzung der durchschnittlichen Schadenanzahl wird sich historisch begründet jedes Jahr vergrößern, aber aufgrund eines gleichzeitig wachsenden Oberleitungsnetzes den Gesamtschaden noch unterschätzen. Weiter können im Prognosejahr städtische Baumaßnahmen zur Einrichtung von Verkehrsumleitungen führen und verändern damit die Verkehrsströme, insbesondere die Anzahl der Fahrzeuge an Kreuzungen mit Oberleitungen. Auch können die jährlich steigenden Schadenfälle zu einem Lernprozess bei der Belegschaft führen, der zu besseren Präventions- und Wartungsverfahren führt, oder es werden weitere Risikosteuerungsmaßnahmen eingeleitet, wo-

OpRisk 47 durch es wiederum zu einer Überschätzung des Gesamtschadens kommt. Auch Extremereignisse wie Stürme oder andere Naturkatastrophen sind ggf. als „Stresssituationen“ nicht stellvertretend für den „Normalzustand“ des Oberleitungsnetzes. Sie können einerseits die Stichprobe verfälschen, andererseits werden Extremereignisse auch nicht durch das Gesamtschadenmodell erfasst. Für die Aussagekraft einer Stichprobe ist ferner der Stichprobenumfang von zentraler Bedeutung. In der Praxis liegen oft wenige historische Beobachtungswerte vor, was beispielsweise darauf zurückzuführen ist, dass das Verkehrsunternehmen erst seit ein paar Jahren in der gegenwärtigen Form existiert oder die Schadenanzahl bisher nur unzureichend dokumentiert war. Auch mögliche Systemwechsel im Unternehmen, prozessuale Schwierigkeiten oder unterschiedliche Datenquellen (Datenbanksystem und manuell gepflegte Tabellenkalkulationsdatei) erschweren den Zugriff auf eine ausreichend lange Datenhistorie. Infolge eines zu kleinen Stichprobenumfangs kann eine Schätzung erheblich von dem tatsächlich vorliegenden Sachverhalt abweichen. Letztendlich besitzt auch die Schätzmethode, mit der von der Stichprobe auf die Grundgesamtheit gefolgert wird, eine möglicherweise für den Sachverhalt unzureichende Güte. Eine Schätzmethode (auch Schätzer oder Schätzfunktion genannt) stellt eine Vorschrift dar, die angibt, wie aus einer Stichprobe ein Schätzwert für einen unbekannten Parameter (eine sogenannte Punktschätzung) ermittelt wird. Ein prominenter Schätzer für den Erwartungswert einer Grundgesamtheit ist beispielsweise die Bildung des Durchschnitts, indem alle Beobachtungswerte aufsummiert und anschließend durch den Stichprobenumfang geteilt werden. Der Idealfall, dass beispielsweise die unbekannte jährliche Schadenanzahl durch eine Punktschätzung genau getroffen wird, ist so gut wie unmöglich. Wünschenswert ist aber zumindest ein Schätzer, dessen Schätzung mit wachsendem Stichprobenumfang „besser“ wird (die sogenannte Konsistenz eines Schätzers). Eine weitere wünschenswerte Eigenschaft ist die Erwartungstreue, d. h. gemittelt über alle möglichen Schätzwerte ergibt sich der unbekannte Parameter. Auch die Streuung der möglichen Schätzwerte, gemessen an der Varianz eines Schätzers, sollte möglichst klein sein, und stellt ein weiteres Gütekriterium für die Wahl einer Schätzmethode dar. Existiert keine oder eine nur unzureichende Datenbasis, tritt anstelle der statistischen Methoden eine Expertenschätzung zur Bestimmung der nicht messbaren, unbekannten Parameter. Mögliche Ursachen für Prognoseungenauigkeiten in Expertenschätzungen können aus der individuellen Risikowahrnehmung resultieren, insbesondere dann, wenn Heuristiken (sog. Daumenregeln) angewendet werden. Im Folgenden werden einige in Gleißner [vgl. Gleißner 2017, S. 49ff.] aufgeführte wesentliche Erkenntnisse der kognitiven Psychologie in den Kontext des Praxisbeispiels gesetzt. Aufgrund seiner langjährigen Erfahrungen und Erinnerungen bei der Reparatur und Organisation von Oberleitungsschäden und ihrer Behebung hat der Betriebsleiter eine Vorstellung über die jährliche Anzahl an Oberleitungsschäden. Diese Vorstellung wird jedoch von systematischen Fehlern beim Wahrnehmen und Erinnern beeinflusst. So schätzen wir die Eintrittswahrscheinlichkeit eines Ereignisses höher ein, wenn ein ähnliches Ereignis erst vor kurzem eingetreten ist. Also wenn sich kurz vor der Einschätzung der jährlichen Zahl an Oberleitungsschäden ein größerer Vorfall ereignet hat, wird der Betriebsleiter die Häufigkeit eher überschätzen. Der Experte ist erst seit kurzem im Unternehmen und hat vorher in einer anderen Verkehrsgesellschaft gearbeitet und kombiniert internes und externes Wissen, um einen Parameter für die jährliche Anzahl von Oberleitungsschäden zu schätzen. Mit diesem schon früh erlangten Vorwissen werden die Informationen systematisch überbewertet, was auch zu einer Überschätzung führen kann. Wie die Beispiele zeigen, ist es unerheblich, ob die Punktschätzung für einen nicht messbaren Parameter aus einer statistischen Datenanalyse oder aus einer subjektiven Expertenschätzung stammt. Mit dem frequentistischen Ansatz werden die Unsicherheiten in der Parametrisierung des Gesamtrisikomodells bei der Risikoquantifizierung nicht erfasst und stellen ein Metarisiko dar. Der Bayessche Ansatz trägt zu einer verbesserten Schätzung des Gesamtrisikos bei, wodurch eine Reduktion dieses Metarisikos erreicht wird. A-priori-Verteilung zur Modellierung von Parameterunsicherheiten Liegen einem Risiko beispielsweise nur wenige Daten oder eine unvollständige Datenhistorie zugrunde, kann die Parametrisierung der Risiken im Rahmen der Risikoquantifizierung nur unter Berücksichtigung von Expertenschätzungen erfolgen. Die sich daraus ergebenden Parameterunsicherheiten können im Gesamtrisikomodell erfasst werden, indem der unbekannte, nicht messbare Parameter selbst als Zufallsgröße aufgefasst und durch eine Wahrscheinlichkeitsverteilung (im Bayesschen Ansatz die sogenannte A-priori-Verteilung) modelliert wird. Wissen, das mithilfe der klassischen Statistik aus vorliegenden Daten gewonnen wird, kann im Bayesschen Ansatz anschließend mit Expertenwissen des Betriebsleiters kombiniert und in Form einer „aktualisierten“ Wahrscheinlichkeitsverteilung für einen unbekannten, nicht messbaren Parameter (der sogenannten A-posteriori-Verteilung) verdichtet werden. Mit dem Bayessche Ansatz erfolgt so eine transparente Einbindung aller vorliegenden Informationen, wodurch die Risikoquantifizierung auf eine (inhaltlich) konsistente Datenbasis gestellt wird. Weiter ermöglicht der Bayessche Ansatz die Abbildung eines kontinuierlichen Lernprozesses. Neue Informationen über das zu quantifizierende Risiko können zu jedem Zeitpunkt im Gesamtrisikomodell berücksichtigt werden, wodurch das aus Parameterunsicherheiten resultierende Metarisiko reduziert werden kann. Den Ausgangspunkt des Bayesschen Ansatzes bildet das Bayessche Theorem. Bayessches Theorem Die Bayessche Statistik stellt einen Erkenntnis- oder Lernprozess dar, der insbesondere im Rahmen eines systematischen und kontinuierlichen Umgangs mit Risiken notwendig ist. Zu diesem Zweck werden zwei In-

RISIKO MANAGER

RISIKO MANAGER 01.2019
RISIKO MANAGER 02.2019
RISIKO MANAGER 03.2019
RISIKOMANAGER_04.2019
RISIKO MANAGER 05.2019
RISIKO MANAGER 06.2019
RISIKO MANAGER_07.2019
RISIKO MANAGER 08.2019
RISIKO MANAGER 09.2019
RISIKO MANAGER 10.2019
RISIKO MANAGER 01.2018
RISIKO MANAGER 02.2018
RISIKO MANAGER 03.2018
RISIKO MANAGER 04.2018
RISIKO MANAGER 05.2018
RISIKO MANAGER 06.2018
RISIKO MANAGER 07.2018
RISIKO MANAGER 08.2018
RISIKO MANAGER 09.2018
RISIKO MANAGER 10.2018
RISIKO MANAGER 01.2017
RISIKO MANAGER 02.2017
RISIKO MANAGER 03.2017
RISIKO MANAGER 04.2017
RISIKO MANAGER 05.2017
RISIKO MANAGER 06.2017
RISIKO MANAGER 07.2017
RISIKO MANAGER 08.2017
RISIKO MANAGER 09.2017
RISIKO MANAGER 10.2017
RISIKO MANAGER 01.2016
RISIKO MANAGER 02.2016
RISIKO MANAGER 03.2016
RISIKO MANAGER 04.2016
RISIKO MANAGER 05.2016
RISIKO MANAGER 06.2016
RISIKO MANAGER 07.2016
RISIKO MANAGER 08.2016
RISIKO MANAGER 09.2016
RISIKO MANAGER 10.2016
RISIKO MANAGER 01.2015
RISIKO MANAGER 02.2015
RISIKO MANAGER 03.2015
RISIKO MANAGER 04.2015
RISIKO MANAGER 05.2015
RISIKO MANAGER 06.2015
RISIKO MANAGER 07.2015
RISIKO MANAGER 08.2015
RISIKO MANAGER 09.2015
RISIKO MANAGER 10.2015
RISIKO MANAGER 11.2015
RISIKO MANAGER 12.2015
RISIKO MANAGER 13.2015
RISIKO MANAGER 15-16.2015
RISIKO MANAGER 17.2015
RISIKO MANAGER 18.2015
RISIKO MANAGER 19.2015
RISIKO MANAGER 20.2015
RISIKO MANAGER 21.2015
RISIKO MANAGER 22.2015
RISIKO MANAGER 23.2015
RISIKO MANAGER 24.2015
RISIKO MANAGER 25-26.2015
 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.