Aufrufe
vor 4 Jahren

RISIKOMANAGER_04.2019

  • Text
  • Deutschen
  • Digitalisierung
  • Privatpersonen
  • Risiken
  • Risiko
  • Bafin
  • Deutschland
  • Anforderungen
  • Unternehmen
  • Banken
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

4 RISIKO MANAGER 04|2019

4 RISIKO MANAGER 04|2019 Neues Geschäftspotenzial und regulatorische Anforderungen Big Data in der Lebensversicherung Spätestens seit Einführung der Europäischen Datenschutzgrundverordnung stehen Big Data und Data-Analytics-Methoden im Fokus der Öffentlichkeit. Zum Einsatz kommen sie auch in der Lebensversicherung. Ziel der Assekuranz ist es, die Produkt- und Serviceangebote für Kunden zu verbessern und Prozesse zu automatisieren. Mithilfe von Big Data kann dies gelingen, allerdings sind die Herausforderungen enorm.

ERM 5 Abb. 01 Vier Schlüsselelemente für Lebensversicherer auf dem Weg hin zum digitalen Anbieter 1 Digitalisierung 2 Daten-Pooling 3 Methoden Vertrieb Risikoprüfung In Force Schaden Data Warehouse Gesellschaft 1 Gesellschaft 2 … Daten-Pool Werde ein vollständig digitaler Versicherer Anzahl auswertbarer Daten signifikant erhöhen Neue statistische Methoden helfen, Daten besser zu analysieren 4 Trotz neuer Methoden wird Expertenwissen weiterhin wichtig bleiben Big Data und künstliche Intelligenz sind große Begriffe, sie klingen nach Zukunft und werfen viele Fragen auf. Um Fragen dreht sich auch das Geschäftsmodell des mächtigsten Players in der Big-Data-Branche. Die Rede ist von Suchanfragen und Google. Der Online-Riese speichert gigantische Datenmengen. Aktuell liegt die Größenordnung in einem Bereich von 10 19 Bytes. Für die Speicherung der gesamten Literatur weltweit wären gerade mal 10 12 Zeichen und Buchstaben erforderlich. Die Voraussetzungen für erfolgreiche Big-Data- Anwendungen Wofür Google die Datenmengen nutzt? Um für mehr als 40.000 Suchanfragen pro Sekunde die bestmöglichen Treffer und passende Werbung anzuzeigen. Der Schlüssel dazu sind Algorithmen. Diese durchforsten Datensätze nach Begriffen, überprüfen die Relevanz ganzer Webseiten und zeigen Treffer an, die individuell auf den Suchenden abgestimmt sind – etwa indem sie dessen Aufenthaltsort berücksichtigen. Die Rahmenbedingungen für diese Aktivitäten bleiben immer gleich, die Algorithmen hingegen lernen mit jeder Suchanfrage eigenständig dazu, ohne dass Menschen noch groß eingreifen müssen. Das Beispiel zeigt: Unzählige kurze Feed back-Schleifen, konsistente Rahmenbedingungen und ein riesiger Datenpool sind ideale Voraussetzungen für Big Data und maschinelles Lernen beziehungsweise künstliche Intelligenz. Die Lebensversicherung ist von diesen Voraussetzungen weit entfernt. So verzeichnet ein typischer Berufsunfähigkeitsversicherer vielleicht ein paar Tausend Schadensfälle pro Jahr, bewegt sich also in Größenordnungen von 10 3 statt 10 19 Bytes. Die Schadendatenbanken sind also im Vergleich zur Google-Datenbank winzig. Hinzu kommt, dass die Rahmenbedingungen in den letzten Jahren in Deutschland alles andere als konsistent waren. Neue regulatorische Anforderungen, neue Berufsklassen und Unisex-Tarife sind nur einige Stichwörter, die dies belegen. Welche Herausforderungen Versicherer jetzt meistern müssen Mit Big Data eröffnen sich der Assekuranz völlig neue Möglichkeiten, die es jetzt zu nutzen gilt. Wie kann das gelingen? Vier Punkte sind in der Lebensversicherung entscheidend ( Abb. 01): 1. Digitalisierung Lebensversicherer sollten die Prozesse entlang ihrer Wertschöpfungskette lückenlos digitalisieren. Damit die erzeugten Daten als Fundament für Data Analytics taugen, müssen sie konsistent sein und in einem System mit einem wohlüberlegten Datenwörterbuch (der genauen Definition, was in welchem Datenfeld zu finden sein soll) zusammengeführt werden. 2. Daten-Pooling Selbst nach erfolgreicher Digitalisierung werden in den nächsten Jahren Einzel-Versicherer noch nicht über eine ausreichende Datenmenge für fundierte Analysen verfügen. Munich Re setzt deshalb auf Pooling, das heißt, wir bündeln als Rückversicherer anonymisierte und pseudonymisierte Datensätze unserer Zedenten und erreichen so signifikante Marktabdeckungen in der deutschen Lebensversicherung die aussagekräftige Analysen erlauben. 3. Methoden Die Pool-Daten sind das Rohmaterial für Data Analytics und zugleich die Grundlage für die Entwicklung immer feinerer Methoden wie multivariate Analysen mithilfe von Generalisierten Linearen oder Additiven Modellen (GLM, GAM), Boosted Tree oder Random Forest Verfahren. In diesen Feldern sind Aktuare in der Lebensversicherung mehr denn je gefragt. 4. Expertenwissen Es genügt nicht, statistische Analysen durchzuführen und neue Korrelationen zu entdecken. Entscheidend für die Versicherer ist die Frage, ob hinter einer

RISIKO MANAGER

 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.