Aufrufe
vor 3 Jahren

RISIKO MANAGER 04.2017

  • Text
  • Risiken
  • Risiko
  • Risikomanagement
  • Kmus
  • Unternehmen
  • Beispielsweise
  • Risikomanagements
  • Controlling
  • Informationen
  • Anforderungen
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

46

46 RISIKO MANAGER 04|2017 auch Informationen darüber, wie sich diese beseitigen oder vermeiden lassen? Idealerweise wird das Verhältnis des Pareto-Prinzips vorgefunden, alternierend kann die „Ursachenaggregation“ angewendet werden. Lassen sich solche nicht reduzieren, bedarf es des entsprechenden Umgangs mit diesen. Das ist an erster Stelle eine praktizierte „Risikokultur“ [vgl. Erben/Romeike 2016]. Die geeigneten Maßnahmen sollten zudem aus den Ergebnissen der Untersuchung der Vorfälle gewonnen werden ( Infobox 02: Fragen-Heuristik 2). Im Rahmen der Sicherheitswissenschaften gelingt dies durch verbesserte Designs, Indikatorensets, spezifische Trainings oder Anreizsysteme. Ziel ist die Reduktion von vor allem „wahrscheinlichkeitssteigernden“ Risiken und Verminderung ihres Potenzials basierend auf der Kenntnis von „Auslösern“. (3) Präventive Risikominimierung durch Adaptation [gemäß „the cautionary strategy“, vgl. SRA 2015] bedeutet, durch Anpassung möglichst nur solche Risiken einzugehen, mit denen auch umgegangen werden kann. Das kann auf zwei Arten geschehen: Entweder die eigene „Robustheit“ zu erhöhen oder gewisse Risiken zu minimieren. Die Erweiterung um Risikopotenziale eröffnet drei Varianten: (a) „Robustheit“ durch einen verbesserten Umgang mit Risikopotenzialen (Risikokultur, Resilienz, etc.). (b) Risikominimierung durch Minimierung der Risikopotenziale (hinsichtlich K). (c) über eine Kombination beider, wofür Apgar zwei Optionen anführt, die er unter der Regel „Nutze Netzwerke von Partnern, um alle Risiken zu managen“ zusammenfasst [vgl. Apgar 2006, S. 19]. Für (a) bis (c), aber im Speziellen (b), steht das Ideal „De Minimus“, da in allen drei Zugängen vor einer verfrühten Bewertung von Risiken als „vernachlässigbar“ gewarnt wird, und das Ziel darin besteht, alle potenziellen und aktiven Risiken „unter Kontrolle“ zu behalten. Im Gegensatz dazu ist die reaktive „De Minimis“-Variante bekannt: Alle Risiken unterhalb eines Schwellenwerts sind vernachlässigbar oder veranlassen nicht dazu, alternative Vorgehensweisen durchzuführen. Einerseits wird damit eventuell ein additiver Summeneffekt vernachlässigbarer Risiken ebenfalls vernachlässigt oder ein potenzierender Summeneffekt sich gegenseitig verstärkender Risiken. Andererseits erfolgt nach dieser Variante keine Adaptation zur Minimierung. Die Idee der „Vernachlässigbarkeit“ ist deshalb umstritten, weil sie von der Prämisse einer vollständigen und richtigen Bewertung von Risiken ausgeht. Doch Fehleinschätzungen kommen vor. Das wird wegen einem über die Zeit möglichen Akkumulationseffekt relevant. Nach diesem dritten Faktor wird allerdings ein auch zunächst kleines Risiko, welches viele Male eingegangen wird, zu einem großen. Wie schnell und in welcher Weise ist nach dem RPR-Konzept überprüfbar. In der von Jeryl Mumpower „De Minimus“ bezeichneten Variante, wird dieser Ansatz genutzt [vgl. Wildavsky 1989, S. 40 f.]: Welche minimalen Risiken akkumulieren sich über die Zeit und werden dadurch in der Eintrittswahrscheinlichkeit (beispielsweise durch gehäuft auftretende Situationen) oder im Wirkungsausmaß (beispielsweise bei der Akkumulation von Schadstoffen) größer? Statt der Festlegung eines Schwellenwerts gilt für die Anwendung von „De Minimus“ ein Austauschverfahren: Zu jeder Zeit muss gewährleistet sein, dass wenn ein neues Risiko (gewollt oder notwendig) akzeptiert wird, ein bereits bekanntes und bestehendes Risiko gleicher oder größerer Art eliminiert wird – wofür auch gegebenenfalls die Ideale Pareto-Prinzip oder Pareto-Optimum angewendet werden können. Ist ein „Risikoaustausch“ nach der formalen Gleichwertigkeit nicht möglich, sollte das neue Risiko vermieden werden. Wird es doch akzeptiert, handelt es sich nicht um Prävention. Die Wahlmöglichkeit wird daher vorausgesetzt, zudem, dass die Risiken bekannt und realistisch bestimmbar sind. Ohne Wissen um RPR konnte Mumpower ein solches Vorgehen nur formal und vorsorglich empfehlen, nicht aber realistisch. Der maßgebliche Vorteil von RPR besteht darin, dass durch diesen dritten Faktor erkennbar wird, welche Risiken RPR sind. Gemäß dieser Erkenntnis kann „De Minimus“ so angewendet werden – die Wahlmöglichkeit vorausgesetzt –, dass ein RPR gegen ein kleineres RPR oder ein normales Risiko eingetauscht wird. Eine Bewertung von Risiken, die im Laufe der Zeit größer werden können, ist je nach Praxisfeld und Fragestellung schwierig, und gelingt einfacher über Risikopotenziale, wenn zunächst qualitativ oder quantitativ „Grundursachen“, die ein „Anwachsen“ verursachen könnten, ausfindig gemacht werden können, sobald im Zeitverlauf genügend Auslöser (A) gegeben sind. Die typischen Gründe für eine Vernachlässigung von Risiken lauten [übersetzt nach Mosler 1997, S. 219; siehe hierzu vergleichend die Kausalfaktoren]: • AN: die Überzeugung, dass die Exposition unter einem gewissen Niveau harmlos ist. • K: die Annahme, dass gewisse Risiken zusätzlich zu bestehenden Expositionen anderer Risiken nur einen geringfügigen (vernachlässigbaren) Einfluss ausüben. • A: der Mangel an gültigen Modellen zur Quantifizierung des verursachten „Schadens“ bei geringem Level einer Exposition. • G: die praktische Schwierigkeit oder Unmöglichkeit der Messung eines aussagekräftigen Expositionsausmaßes. Wegen solcher Gründe erfahren qualitative Methoden zunehmende Bedeutung. Nach dem RPR-Konzept müssen diese Probleme aber nicht gelöst werden. Sobald Vorwarnungen auftauchen, sind sie teilweise überprüfbar, jedenfalls wird das Vorsorge-Prinzip operationalisierbar. Anders formuliert: Die klassische „De Minimis“-Vernachlässigung ist nur solange zulässig, solange sie nicht durch Vorwarnungen widerlegt wurde. Die Kritik von Aaron B. Wildavsky [vgl. Wildavsky 1989] an Mumpowers Argumentation ist damit nicht zulässig, weil das RPR-Konzept zeigt, wieso die Schlüsse Wildavskys falsch sind, da er keinen „Kausalnexus“ berücksichtigt. Für die vorliegenden Zwecke impliziert ein solcher Zugang zumindest zwei Vorteile: Einerseits wird durch diesen dritten Faktor eine Falschbewertung von vornherein reduziert, andererseits werden gewisse Summeneffekte idealerweise ebenfalls vermieden, welche die Anfälligkeiten nach Mumpower stark erhöhen könnten. Ein für die genannten Aspekte aktuelles Beispiel ist die Debatte um hochfrequente elektromagnetische

ERM 47 Infobox 02 Heuristiken A: Frage-Heuristiken 1: Sind Risikopotenziale vorhanden? Die Idee der Risikopotenziale spiegelt sich in qualitativen Assessments wider. Die folgende Heuristik soll zur Erkennung von Risikopotenzialen verhelfen und ist allgemein anwendbar [adaptiert und übersetzt von Kaplan 2002]. (a) Kritikalität: Welche Aktivitäten, die unzureichend ausgeführt werden, haben das größte Potenzial das ganze operative System zu schädigen beziehungsweise allgemeiner zu beeinträchtigen? (b) Involviertheit: Welche Aktivitäten, bei denen direkt menschliche Akteure involviert sind, haben das größte Potenzial zu negativen Konsequenzen durch fehlerhafte Aktionen oder Entscheidungen? (c) Häufigkeit: Wie häufig werden solche Aktivitäten ausgeführt? (Also pro Tag/ Woche/Jahr etc.) 2: Handelt es sich um „Near Miss“? Ist bereits ein NM eingetreten, können einfache Fragen helfen, das inhärente Potenzial für gröbere Konsequenzen aufzudecken [verallgemeinert nach Müller 2012, S. 67]: (a) Ist die tatsächliche Konsequenz die schlimmst mögliche Folge? > Es hätte schlimmer sein können, bedeutet: Maßnahmen sind nötig! (b) Was hätte schlimmstenfalls passieren können? > Je nach Antwort gilt es, spezifische Maßnahmen umzusetzen. Für eine zusätzliche qualitative Einschätzung der Wahrscheinlichkeit eignet sich auch die Frage (c). Um zu „Grundursachen“ vorzudringen, empfiehlt sich eine Kombination mit anderen qualitativen Methoden. In der Unfallforschung und im Rahmen der Fehlerkultur wird etwa die „5-W-Methode“ genutzt: Es werden solange Warum-Fragen gestellt (symbolisch 5), bis der fehlerverursachende Prozessschritt eindeutig identifiziert und nicht mehr weiter aufteilbar ist. B: Schätzheuristiken Vorbemerkung: Um auf erhöhte Wahrscheinlichkeiten zu tatsächlichen Schadensereignissen schließen zu können, sind quantitative Informationen nötig. Die Einfachheit der hier vorgestellten Schätzheuristiken soll dazu veranlassen diesen Ansatz zu testen und seinen Wert zu prüfen. (Anm.: Solche Schätzverfahren sind den Autoren nicht bekannt.) Es sei allerdings explizit darauf hingewiesen, dass es sich hierbei um Schätzverfahren handelt. Ein Vergleich mit anderen Methoden ist also empfehlenswert. Risikoformel-Heuristik: (a) Einfache Schätzung: Um eine realistische Einschätzung zu ermöglichen, basiert die Formel auf dem Kernelement: NM / (NM + 1) wobei NM die Anzahl der bisher dokumentierten NM meint. Diese Formel berechnet die Wahrscheinlichkeit dafür, wie wahrscheinlich der nächste NM der Letzte ist. Daher gilt: 1 - ( NM / (NM + 1)) Diese Formel beschreibt jene Wahrscheinlichkeit, dass ein nächstes auslösendes Ereignis noch einmal ein NM sein kann. Das bedeutet mit der Zunahme der Anzahl an NM nimmt die Wahrscheinlichkeit ab, dass es nochmals bei einem ähnlichen Ereignis zu einem NM kommt. Bei einem einzelnen NM ist die Wahrscheinlichkeit bei 50 Prozent (1/2 = 0,5), also klassisch unentscheidbar. Nach drei NM ist der mögliche vierte bereits nur noch zu 25 Prozent Wahrscheinlichkeit ein NM (1 - ¾), bei 4 zu 20 Prozent. Mit anderen Worten stellt diese Formel keine Vorhersage dar, denn Risiko bleibt Risiko, sondern prognostiziert den noch verbleibenden Spielraum nach den Regeln der Wahrscheinlichkeit (unter der hypothetisch angenommenen Obergrenze NM + 1). Mit Bezug auf die Unfallpyramide besagt die Formel daher, dass nach 29 NM die Wahrscheinlichkeit nur noch bei 3 Prozent liegt, dass ein weiteres auslösendes Ereignis 30 noch einmal ein NM ist. Somit dient die Formel zur Modifikation der Variable E in der einfachen Risikoformel: Umso mehr NM, desto wahrscheinlicher sind alle anderen tatsächlichen Schadensfälle, wofür ein einfaches Schätzverfahren ausreicht: E 2 = E 1 + ((E 1 / (1- ( NM / (NM + 1)))) / 100) Die modifizierte Risikoformel (R M ) lautet daher: R 2 = E 2 x S 1 .....R M = E M x S 1 Beispielsweise bei NM = 14: R 1 = 5 x 2 = 10 R 2 = 5.75 x 2 = 11,5 Solange keine maßgeblichen Veränderungen vorliegen (bezüglich G, K und A), wird die realistische Dynamik im Rahmen von E in einer kontinuierlichen Zählung abgebildet. Also die darauffolgenden R-Werte werden immer mit dem Wert insgesamt bekannter NM berechnet (z. B.: im Fall von 14 nach weiteren 4 mit 18: 5,75 >> 6,84). Nur so wird realistisch abgebildet, wie sprunghaft schnell die Menge an NM wächst, denn dies ist je nach Anwendungsfeld völlig unterschiedlich. Eine absolut realistische Modifikation setzt voraus, dass es bereits signifikante Mengen an NM gab, die untersucht werden konnten und ein gemeinsames G aufweisen! Ein gewisser Subjektivismus beziehungsweise Konstruktivismus bleibt daher erhalten. Die Quantifizierung bleibt selbstverständlich abhängig von einer Informationsgrundlage, aber eben auch von einer „realistischen“ Beurteilung dieser, wofür die Fragen-Heuristiken nur Hilfestellungen bieten können. Dennoch lässt sich nach diesem Vorgehen die Risikoidentifikation mit zunehmender Informationsbreite nur verbessern: Risiko bleibt zwar die Unsicherheit über die Konsequenzen von Aktivitäten, doch mit dem RPR-Konzept lässt sich zunehmend realistischer einschätzen, welche Unsicherheiten im Rahmen welchen Spielraums gegeben sind, also welche Restunsicherheit besteht. Damit ist dieses Vorgehen ganz im Sinn von Bayes-Theorem. Strenggenommen können Wahrscheinlichkeitsaussagen zwar nicht wi-

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.