Aufrufe
vor 6 Jahren

RISIKO MANAGER 01.2016

  • Text
  • Banken
  • Risiken
  • Risiko
  • Risikomanagement
  • Regulierung
  • Unternehmen
  • Informationen
  • Deutschen
  • Deutschland
  • Aktien
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

22 firm Frankfurter

22 firm Frankfurter Institut für Risikomanagement und Regulierung INTERVIEW Die Welt ist kein vieldimensionales Roulette Interview mit Prof. Dr. Dr. h.c. Günter Franke, Prof. für Internationales Finanzmanagement i.R., Universität Konstanz Das Risiko-Universum hat sich in der jüngeren Vergangenheit erkennbar ausgedehnt. Durch eine stärkere weltweite Vernetzung von Banken und ihren Kunden, durch eine Vielzahl neuer regulatorischer Anforderungen sowie durch eine geänderte Risikolandkarte und Risikowahrnehmung werden an professionelle Risikomanager erhebliche Anforderungen gestellt. Die Risikofunktion in Finanzdienstleistungsunternehmen hat dadurch an Bedeutung gewonnen. Diese Entwicklung wirft die Frage auf, wie professionelles Risikomanagement am besten funktioniert, welche Mechanismen ineinandergreifen und wie Erkenntnisse aus der Risikoforschung bestmöglich in die Praxis umgesetzt werden können. Wir sprachen mit Prof. Dr. Dr. h.c. Günter Franke (Prof. für Internationales Finanzmanagement i.R., Universität Konstanz sowie Ko-Vorsitzender des Beirats der Gesellschaft für Risikomanagement und Regulierung) über Methoden, Modelle und Werkzeuge im Risikomanagement sowie aktuelle Wege in der Regulierung von Banken. FIRM-Redaktion: Methoden, Modelle und Werkzeuge sind wichtige Instrumentarien im Risikomanagement. Welche neuen Entwicklungen gibt es in diesem Bereich aus wissenschaftlicher Perspektive? Günter Franke: Erstens: In der Finanzkrise haben wir gelernt, dass die Liquidität von Märkten eine wichtige Rolle für das Risikomanagement von Finanzintermediären spielt. Die Vorstellung, dass ein Finanzintermediär höhere Risiken nehmen kann, weil er gegebenenfalls Risiken sehr schnell über Märkte abgeben kann, trifft nur mit erheblichen Einschränkungen zu. Daher ist es wichtig, die Determinanten von Liquidität von Märkten zu klären. Je geringer diese im Bedarfsfall sein können, desto vorsichtiger muss die Bank bei der Übernahme von Risiken vorgehen. Liquiditätsforschung ist daher eine wichtige Herausforderung auch für die Wissenschaft geworden. Zweitens: Ein offenes Thema ist nach wie vor die Verknüpfung von quantitativem und qualitativem Risikomanagement. Beide Arten des Risikomanagements sind unverzichtbar. Sollte das quantitative Risikomanagement auf kurze Frist unter „normalen Verhältnissen“ der Kompass sein? Sollte das qualitative Risikomanagement mit zunehmendem Planungshorizont mehr Gewicht bekommen? Sollte auf lange Frist das quantitative Risikomanagement dem qualitativen untergeordnet sein? Drittens: Was bedeutet die Entwicklung von Big-Data-Strategien für die Handelsbuch-Aktivitäten von Finanzintermediären? Haben konventionelle Händler im Handel eine Chance gegen Algorithmus-Handel? Wie kann die Konkurrenz von Maschinen in den Risikomodellen von Händlern berücksichtigt werden? FIRM-Redaktion: Jüngst war in einem Beitrag zu „Jenseits aller Daten“ in der Zeitung „Die Welt“ von intuitiven Entscheidungen die Rede, die oft schneller und auch besser wären als langwierige Analysen. Welchen Standpunkt vertreten Sie an dieser Stelle, gerade mit Blick auf einen sicheren Risikomanagementprozess? Günter Franke: Wir sehen die Grenzen von quantitativen Risikomodellen heute viel klarer als vor der Krise. Nicht selten beobachten wir ein komplexes Zusammenwirken zahlreicher Risikofaktoren. Analysiert man nur die Daten der letzten zehn bis zwanzig Jahre, dann haben wir in diesen Jahren bestimmte Konstellationen von Risikofaktoren beobachtet, andere jedoch nicht. Weil die nicht beobachteten Konstellationen in der Datenschätzung fehlen, führt eine Extrapolation zu Fehlschlüssen. Inwieweit solche Konstellationen eine Rolle spielen, ist nur qualitativ abschätzbar. Hier kommt Intuition und Bauchgefühl eine besondere Bedeutung zu. Andererseits wurden quantitative Risikomodelle eingeführt, weil sich bei qualitativen Vorgehensweisen oft Fehlentscheidungen gezeigt haben. Quantitative Risikomodelle sind ein wichtiges Korrektiv und erzwingen eine wichtige gedankliche Präzisierung. Ich bezweifle, dass mit intuitiven Entscheidungen grundsätzlich bessere Ergebnisse erzielt werden können. Einen „sicheren Risikomanagementprozess“ wird es allerdings nie geben. FIRM-Redaktion: Blickt man auf die globale Risikolandkarte mit Finanzrisiken, Kriegen, Flüchtlingsdramen, Cyber-Risiken und extremen Wetterereignissen, fragt man sich als Außenstehender, wie funktionierende Risikomanagementprozesse samt valider Analysen und möglicher Szenarien überhaupt noch umsetzbar sind. Welchen Weg schlagen Forscher hier ein, um stabile Vorhersagen auch in Zukunft treffen zu können? Günter Franke: Forscher sind viel bescheidener geworden. Die Welt läuft nicht nach einem Modell eines viel-dimensionalen Roulettes, das man nur lange genug beobachten muss, um seine Gesetzmäßigkeiten zu erkennen. Quantitative Modelle liefern zwar genaue Ergebnisse, aber ebenso wichtig ist es, die möglichen Fehler aus Modell-

23 Ausgabe 01/2016 und Schätzrisiken zu identifizieren. Der Mangel an Vorhersagbarkeit wird insbesondere deutlich, wenn es um systemische Risiken geht. Daher hat sich in der wissenschaftlichen, aber auch in der praktischen Betrachtungsweise das Gewicht verschoben von der Risikomodellierung zur Vorsorge durch mehr Flexibilität in der Risikopolitik und höhere Risikopuffer, insbesondere zu höherem Verlust-absorbierenden Kapital der Finanzintermediäre. Damit soll dem Grundsatz der Gleichheit von Haftung und Verfügung wieder stärker Rechnung getragen werden. Der Steuerzahler soll möglichst geschont werden, Gesellschafter und nachrangige Gläubiger sollen in der Krise zur Kasse gebeten werden. Ob dies zu einer vorsichtigeren Risikopolitik der Finanzintermediäre führt, bleibt abzuwarten. Neben dem klassischen Ansatz, Szenarien und Wahrscheinlichkeitsverteilungen aus der Analyse von Vergangenheitsdaten abzuleiten, spielt in jüngerer Zeit der Versuch, aus den aktuell beobachtbaren Daten von Wertpapieren Prognosen abzuleiten, eine immer größere Rolle. Seit langem werden aus der aktuell beobachtbaren Zinsstrukturkurve Terminzinssätze abgeleitet, die für die Prognose zukünftiger Zinssätze eine wichtige Rolle spielen. Inzwischen versucht man aber auch in anderen Anlageklassen, zum Beispiel im Aktienbereich, die vorhandenen aktuellen Daten besser zu nutzen. In den aktuellen Daten spiegeln sich die aktuellen Einschätzungen der Marktteilnehmer mit einer Durchschnittsbildung wider. So kann man aus Optionspreisen implizite Volatilitäten ableiten, die die Risikoeinschätzung des Markts wiedergeben. Anhand von Preisen für Optionen auf Aktienkurs-Indizes kann man auch Arrow-Debreu-Preise für bestimmte Szenarien des Aktienmarkts abschätzen. Hinter einem solchen Preis verbirgt sich die Martingal-Wahrscheinlichkeit, also die physikalische Wahrscheinlichkeit eines Szenarios, adjustiert um die Risikoeinstellung des Markts in diesem Szenario. Ebenso kann man aus den itraxx-Tranchen Martingal-Wahrscheinlichkeiten für gesamtwirtschaftliche Ausfallszenarien ableiten. Die Nutzung solcher Informationen kann der Nutzung vergangenheitsbezogener Informationen durchaus überlegen sein, weil die aktuellen Informationen die Einschätzungen der Marktteilnehmer widerspiegeln. Dies ist eine zukunftsbezogene Information, während die Analyse von Vergangenheitsdaten sich auf die Vergangenheit bezieht. Die Methoden, aktuelle Daten auszuwerten, werden laufend verbessert. Sie werden auch für das Risikomanagement zunehmend wichtiger. FIRM-Redaktion: Sprechen wir von Regulierung, so müssen wir auch von Einschränkungen der freien Handels- und Finanzmärkte sprechen und ganz allgemein von den Handlungsfeldern der Unternehmen. Stecken darin aber nicht gleichzeitig ein Hemmschuh für das Eingehen kalkulierter Risiken aus Unternehmersicht und ein Ausbremsen möglicher Wachstumspotenziale sowie der damit verbundenen Chancen? Günter Franke: Eine strengere Regulierung von Handels- und Finanzmärkten bedarf der Rechtfertigung, dass damit negative externe Effekte eingeschränkt werden. Geht es zum Beispiel um mehr Transparenz in Dark Pools, um die Abwehr potenzieller Marktmanipulationen oder die Einschränkung von Gefahren des „high frequency trading“, dann sind solche Einschränkungen im Allgemeinen erforderlich, um ein einwandfreies Funktionieren der Märkte ohne Benachteiligung externer Investoren sicherzustellen. Anders verhält es sich beispielsweise bei der Kreditvergabe. Sie gehört zu den wichtigen Aufgaben von Banken. Dazu betreiben die Banken Risikotransformation. Wird die Kreditvergabe schärfer reguliert und damit eingeschränkt, dann kann dies das kreditfinanzierte Wachstum von Unternehmen und damit der gesamten Wirtschaft einschränken. Aber auch hierbei gilt, dass der Grundsatz der Gleichheit von Haftung und Verfügung möglichst gelten soll. Andernfalls besteht die Gefahr übermäßiger Kreditvergabe, die zu Bankzusammenbrüchen, gegebenenfalls zu einer Finanzkrise und damit enormen volkswirtschaftlichen Schäden führen kann. Regulierung sollte eine aus Sicht der Bank und der gesamten Wirtschaft sinnvolle, besonnene Kreditvergabe fördern. Dass dies nicht immer gelingt, ist eine eher triviale Einsicht. Regulierung ist daher eine Gratwanderung, die einerseits Kreditvergabe und Wettbewerb der Finanzintermediäre einschränkt, andererseits krisenhafte Bankzusammenbrüche verhindern soll. FIRM-Redaktion: Viele Prozesse, Initiativen und Analysen hinken in Deutschland der digitalisierten und sich fundamental verändernden Welt hinterher. Welchen Beitrag muss/kann Ihrer Meinung nach die Risikomanagementforschung leisten, um den Anschluss an die „Welt von heute und morgen“ nicht komplett zu verlieren? Günter Franke: Angeblich hat Obama die Wiederwahl gewonnen, weil er auf Analysen von Big Data zurückgreifen konnte. Ähnlich operieren die „high frequency“-Algorithmen mit Big Data und sehr anspruchs-

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.