26 RISIKO MANAGER 04|2017 Abb. 03 Typischer Anwendungsfall Portfolio an Verteilungsfunktionen in der Praxis Falls nur Intervall bekannt, Ort eines Ereignisses (z. B. Leck in der Pipeline) Szenario-Schätzung, Planungsannahmen Aus vielen Komponenten bestehende Prozesse, Fehlermaße bei Summen stochastischer Größen Zwischenankunftszeiten von Aufträgen, Ereignisse in einem Zeitintervall (z. B. Halbwertzeit) Wiederholte unabhängige Versuche mit gleicher Erfolgswahrscheinlichkeit (z. B. Münzwurf) Quelle: RiskNET GmbH. Situationen der Unsicherheit zwischen Ungewissheit (uncertainty) und Risiko im engeren Sinn (risk). In Abb. 02 ist das Szenario der nicht berechenbaren Unsicherheit rechts abgebildet („True Ambiguity“). Derartige außergewöhnliche Einzelereignisse werden auch als „Schwarze Schwäne“ (Black Swan) bezeichnet. Es handelt sich um Ausreißer, die außerhalb des üblichen Bereichs der Erwartung liegt, da in der Vergangenheit nichts Vergleichbares geschehen ist [vgl. Taleb 2008]. Das Phänomen der Schwarzen Schwäne ist also eng verbunden Potenziell geeignete Wahrscheinlichkeitsverteilung Gleichverteilung Dreiecksverteilung Normalverteilung Exponentialverteilung Binomialverteilung mit dem grundlegenden (philosophischen) Problem der Induktion, also dem Schließen von (endlichen) Vergangenheitsdaten auf die Zukunft [vgl. Gleißner/Romeike 2010]. Die Aufgabe besteht folglich darin, die Risiken zu identifizieren und zu bewerten, die auf die einzelnen Positionen der Planung wirken. Die dabei angewendeten Methoden liefern nur dann verwertbare Aussagen, wenn diese Risiken auch wirklich quantifiziert werden können. Auf diese Notwendigkeit hat der Ökonom Hans-Werner Sinn bereits vor vielen Jahrzehnten in seiner Dissertation „Ökonomische Entscheidungen bei Ungewissheit“ [vgl. Sinn 1980] hingewiesen. Sinn zeigt auf, dass grundsätzlich alle Risiken zu quantifizieren sind, auch wenn nur subjektive Schätzungen verfügbar sind. Auch subjektiv geschätzte Risiken können genauso verarbeitet werden wie (vermeintlich) objektiv quantifizierte. Man muss sich hier immer über die Alternativen klar sein: Die quantitativen Auswirkungen eines Risikos mit den best verfügbaren Kenntnissen (notfalls subjektiv) zu schätzen, oder die quantitativen Auswirkungen implizit auf Null zu setzen und damit den Risikoumfang zu unterschätzen. Insgesamt ist damit klar: Nur die Quantifizierung von Risiken schafft einen erheblichen Teil des ökonomischen Nutzens des Risikomanagements zur Unterstützung von Entscheidungen unter Unsicherheit. Die scheinbare Alternative einer Nicht-Quantifizierung von Risiken existiert sowieso nicht, da nicht quantifizierte Risiken kaum etwas anderes sind als mit Null quantifizierte Risiken [vgl. Romeike 2007, S. 23 sowie Sinn 1980]. Bewertung mithilfe geeigneter Verteilungsfunktionen In der Praxis verbreitete Ansätze, wie beispielsweise die Bewertung von Risiken mithilfe einer Eintrittswahrscheinlichkeit und eines potenziellen Schadensausmaßes, sind Abb. 04 Stochastischer Prozess Individuelle potenzielle Pfade Jeder Pfad spiegelt ein potenzielles Jahresergebnis wider! Verteilung der Ergebnisse, bspw. EBIT Heute 3 6 9 12 Monate 15 18 21 24 Quelle: RiskNET GmbH.
ERM 27 Abb. 05 Histogramm nach einer Simulation 850 750 650 1 Expected value 550 450 350 250 3 Probability of experiencing a loss 2 Standard deviation (one measure of risk) 150 50 99 % -126 -114 -102 -90 -78 -66 -54 -42 -30 -18 -6 6 18 30 42 54 66 78 90 102 114 128 138 150 162 174 186 198 210 222 234 246 258 270 282 294 306 318 330 342 354 366 378 390 402 -50 loss 0 profit 5 Expected shortfall (an alternative measure of risk) 4 Value at risk (for a certain conf. level) Quelle: RiskNET GmbH. ein Irrweg, da hier unterstellt wird, dass Risiken einer Bernoulli-Verteilung (auch als Null-Eins-Verteilung oder Boole-Verteilung bezeichnet) folgen. Ein Blick in die Praxis zeigt, dass nur die wenigsten Risiken einer solchen Verteilung folgen. Anschließend werden (zur „Aggregation“) nicht selten die Eintrittswahrscheinlichkeit mit dem Schadensausmaß multipliziert, was insbesondere bei existenzbedrohenden Risiken (mit einer geringen Eintrittswahrscheinlichkeit und einem hohen Schadensausmaß) zu einem „Wegmultiplizieren“ von Risiken führt. Außerdem liegen in der Praxis nur selten exakte Schätzungen vor, die seriös zum Ansatz gebracht werden können. Das Ergebnis: Eine Pseudoexaktheit und ein „unseriöser“ Umgang mit Unsicherheit gaukeln eine Transparenz über die tatsächliche Risikosituation vor. Die einzige Methode, die hier zu sinnvollen Ergebnissen führt, ist die Quantifizierung von Schadenshöhen und vermuteter Eintrittshäufigkeit in der Form von geeigneten Verteilungsfunktionen, die das Risiko in Form von Bandbreiten abbilden (vgl. Abb. 03). Dabei werden für die Schadenshöhe beispielsweise ein Minimum („best case“), der wahrscheinlichste Wert („most likely case“) und ein Maximum („worst case“) zum Ansatz gebracht sowie eine Häufigkeitsverteilung (beispielsweise in Form einer Poisson-Verteilung) um einen erwarteten Wert. Diese Werte sind die Parameter für eine entsprechende Verteilungsfunktion, die dann mittels stochastischer Simulation (beziehungsweise stochastischer Szenarioanalyse, die auf einer Monte-Carlo-Simulation basiert) ausgewertet wird. Dieses Verfahren hat mehrere Vorteile: »» Die stochastische Simulation berechnet eine Vielzahl von Szenarien (vgl. Abb. 04), die anschließend ausgewertet werden können. So liefert beispielsweise der „Mittelwert“ der Simulationsergebnisse den zukünftigen Erwartungswert in ein, zwei oder x Jahren. Alternativ können Stress-Szenarien analysiert werden. »» Die Parameter der Verteilungsfunktion können variiert werden. Womit es beispielsweise möglich ist, Strategien „durchzuspielen“ und unterschiedliche Szenarien (etwa Best-Case, Real-Case oder Stress-Szenarien) zu analysieren. »» Es können nicht nur einzelnen Risiken betrachtet werden, sondern es kann die Gesamtheit mehrerer Risiken (beispielsweise für einen Geschäftsbereich, das gesamte Unternehmen oder ein Land) aggregiert werden. Abhängigkeiten sollten hierbei berücksichtigt werden (beispielsweise durch die Abbildung von Ursache-Wirkungs-Zusammenhängen, Korrelationen oder Copulae). Das Resultat dieser Aggregation ist dann eine Verteilungskurve, die die Verteilung des Gesamtrisikos sowie weitere Kennzahlen ausweist (vgl. Abb. 05). Aggregation von Risiken Insbesondere das berechnete Risikokapital ist ein wichtiger Wert für die Unternehmenssteuerung, da eine Aussage darüber getroffen wird, wie hoch das benötigte Eigenkapital zur Gewährleistung der Risikotragfähigkeit des Unternehmens ist und ob gegebenenfalls Maßnahmen erforderlich sind, um die Risikotragfähigkeit (in Relation zu den Risiken, vgl. Abb. 06) wieder in eine Balance zu bringen. Eine wichtige Performancegröße ist in diesem Zusammenhang der RORAC (Return on Risk Adjusted Capital) beziehungsweise RAROC (Risk Adjusted Return on Capital), vgl. Abb. 07. Risiken bei Projekt- und Investitionsplanungen Während das Bewusstsein für die Einbeziehung einer Risikobetrachtung in die Ergebnisplanung zunehmend an Akzeptanz gewinnt, so besteht bei Projekt- und
Laden...
Laden...
Laden...
Copyright Risiko Manager © 2004-2017. All Rights Reserved.