Aufrufe
vor 3 Jahren

RISIKO MANAGER 10.2017

  • Text
  • Risikomanagement
  • Unternehmen
  • Risiken
  • Insbesondere
  • Beispielsweise
  • Autoren
  • Risiko
  • Risikomanagements
  • Methoden
  • Banken
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

34 firm Frankfurter

34 firm Frankfurter Institut für Risikomanagement und Regulierung INTERVIEW Quo vadis Big Data? Interview mit Ernest McCutcheon vom Unternehmen DDS in Karlsruhe sowie Frank Romeike vom Kompetenzportal RiskNET. Big Data ist en vogue. Vor allem die Wirtschaft trommelt seit Jahren für einen stärkeren Einsatz neuer Analysemethoden. Der Glaube: Alles zu jeder Zeit im Blick haben und vorausschauend bestimmen zu können. Doch es ist Vorsicht geboten. Denn neben den vermeintlichen Chancen der Big-Data-Welt lauern auch Risiken. FIRM-Redaktion: Location Intelligence und damit das Thema raumbezogener Daten ist für Sie, Herr McCutcheon, Teil Ihres Kerngeschäfts. Können Sie der Leserschaft einen kurzen Einblick geben, was Sie in diesem Bereich genau tun und welchen Mehrwert Sie Unternehmen versprechen? Ernest McCutcheon: Location Intelligence und raumbezogene Daten sind nicht ein Teil meines Kerngeschäfts, sondern sie sind mein Kerngeschäft. Vor über 20 Jahren hat meine Firma, die DDS Digital Data Services GmbH, sich auf das Thema raumbezogene Daten spezialisiert. Unser Aktivitätsschwerpunkt liegt besonders auf der Nutzung solcher Daten in Verbindung mit den Daten des Kunden, um deren Geschäftsprozesse zu optimieren. Das nennen wir inzwischen „Location Intelligence“. Je nach Kunde und Anwendung sind die dafür benötigten Daten sehr unterschiedlich. Wir unterstützen und beraten unsere Kunden bei der Auswahl, Lizenzierung und Integration dieser Daten oder inzwischen auch zu cloudbasierten Datendiensten. Häufig sind unsere Kunden selbst Lösungsanbieter, die wiederum für die Nutzer ihrer Lösungen ergänzende Daten (oder Dienste) suchen. Aber auch wenn der Kunde für seine Anwendung Software oder Tools benötigt, können wir ihn dabei unterstützen. Wir bieten Komponenten und/oder Dienste von PTV (xServer), Pitney Bowes (MapInfo, Spectrum Spatial), Integeo (MapIntelligence), Microsoft (Bing Maps) und Here (Here Location Platform) an. Unser Mehrwert liegt konkret in unserer langjährigen Erfahrung mit raumbezogenen Daten in Business-Anwendungen, wie Standortplanung und -analyse, Marketingoptimierung, Kundenanalyse und -segmentierung. FIRM-Redaktion: Herr Romeike, wo es Chancen und Vorteile gibt, sind auch Risiken. Wo sehen Sie die kritischen Momente einer umfassenden Datenanalyse und -auswertung? Frank Romeike: Die modernen Orakel unserer digitalen und vernetzten Zeit heißen Big Data, Datenanalysen und Predictive Analytics. Doch eine große Zahl von selbsternannten und verträumten Big-Data-Propagandisten kennt weder die grundlegenden numerischen Algorithmen zur Lösung von linearen Gleichungssystemen noch Verfahren der linearen Optimierung, der Dimensionsreduktion oder der Interpolation. Sie sehen blauäugig nur die kommerziellen Chancen der schönen neuen Datenwelt. FIRM-Redaktion: Können Sie das konkretisieren? Frank Romeike: Eines der größten Risiken von Big Data besteht darin, dass Koinzidenz (Korrelation) mit Kausalität verwechselt wird. So kann man eine fast perfekte (positive) Korrelation zwischen Beschäftigten auf Campingplätzen und der Erntemenge von Gurken auf dem Freiland berechnen oder der Anzahl der McDonalds-Standorte in Deutschland und der installierten Windenergieleistung in Deutschland. Doch besteht hier auch eine Kausalität? In der verträumten „Pro-Big-Data“-Propagandawelt würde man uns klarmachen, dass dies egal wäre. Mathematiker hingegen bezeichnen so etwas als „spurious relationship“. Big Data birgt vor allem das Risiko von extremen Fehlentscheidungen, da wir die Gesetzmäßigkeiten nicht mehr kritisch hinterfragen. Newtons Idee des Schwerkraftgesetzes kam ihm nicht, weil er unentwegt Äpfel von Bäumen fallen ließ. Mit anderen Worten: Zu Bits und Bytes muss die Fähigkeit kommen, die anfallenden Daten nicht nur auszuwerten, sondern auch zu interpretieren. Und exakt hier scheitern viele Experten in der Praxis. Denn die Tatsache, dass ein Muster existiert, setzt voraus, dass dieses in der Vergangenheit entstanden ist. Dies wiederum heißt nicht zwangsläufig, dass eine Schlussfolgerung aufgrund dieses Musters auch für die Zukunft Gültigkeit besitzt. Ein Thema, das wir übrigens beim kommenden RiskNET Summit Ende Oktober 2017 ausführlich diskutieren werden. Weitere Risiken sehe ich darin, dass Menschen auf Datenspuren reduziert werden. Wir benötigen eine gesellschaftliche und konstruktive Debatte über Datenschutz, Ethik und „informationelle Selbstbestimmung“. Wollen wir uns einer Diktatur der Daten ausliefern und in einer Welt leben, in der Big Data mehr über unsere Risiken, unsere Vergangenheit, Gegenwart und Zukunft weiß, als wir uns selbst erinnern können? Diese Schattenseiten von Big Data sollten zu transparenten und verbindlichen Regeln und einer breiten Diskussion über die Gefahren entfesselter Daten-Technologien und einer zunehmend unkontrollierten Macht von Herrschern über Daten führen. FIRM-Redaktion: Bleiben wir noch einen Moment bei den negativen Folgen: Datenanalysen sind per se nicht immer das Allheilmittel, wie die letzten Fälle von Fehlinterpretationen der Wahl in den USA und dem Brexit-Austritt zeigen. Begeben wir uns hier nicht in die Falle einer falschen Kausalität bei Datenauswertungen? Ernest McCutcheon: Da es in dieser Diskussion um Big Data geht, werde ich versuchen, auf die wachsende Rolle von Big Data bei solchen Ereignissen einzugehen. Dafür muss ich etwas ausholen. Die massive Zunahme an Mobiltelefonen hat dazu geführt, dass schon

35 Ausgabe 10/2017 2016 weniger als die Hälfte aller Haushalte in den USA über ein Festnetztelefon verfügten. Da es verboten ist, bei Umfragen Mobiltelefone anzurufen (in den USA müssen Handynutzer auch eingehende Anrufe bezahlen), wird es immer schwieriger, eine wirklich „repräsentative“ Gruppe zu bilden. Das Leben für die Erheber solcher Umfragen wird immer schwieriger, und sie werden langfristig ihre Methoden anpassen müssen, wenn sie in Zukunft wieder realistische Prognosen abgeben wollen. Eine bedeutende Quelle von „Big Data“ sind Social-Media- Plattformen wie Facebook und Twitter. Die Wahl von Donald Trump hat die Diskussion über die Rolle von „Fake News“ und „Alternativen Fakten“, die über solche Medien verbreitet werden, entfacht. Studien zeigen, dass es möglich ist, durch eine gezielte Sendung von Informationen an „vernetzte Influencer“ deren Verhalten, auch deren Wahlverhalten, zu beeinflussen. Natürlich haben beide Phänomene etwas miteinander zu tun. Da die Mehrheit der Nutzer solcher Plattformen über ihr Mobiltelefon aktiv ist, sind häufig auch raumbezogene Daten dabei – sei es direkt über das GPS des Geräts oder indirekt über eine WLAN-, MAC- oder IP-Adresse. Damit ist es möglich, regionale Trends zu erkennen und darauf basierend gezielte lokale Maßnahmen einzusetzen. Eine klassische EDV-Aussage lautet: „Müll rein, Müll raus“. Bei Big Data könnte man sagen: „viel Müll rein, viel Müll raus“. Data Scientists müssen also sicherstellen, dass sie ein gutes Verständnis der Eingangsdaten haben, sonst kommen Ergebnisse raus, die nichts mit der Realität zu tun haben. Da viele Entscheidungen negative Auswirkungen auf Menschen haben können, zum Beispiel in den Versicherungs- und Finanzbranchen, ist durchaus Vorsicht geboten. Frank Romeike: Der Aussage hinsichtlich „GIGO“ (Garbage In, Garbage Out, Anm. d. Red.) kann ich nur zustimmen. Aber im konkreten Fall Brexit und US-Wahl sehe ich weniger das Risiko der „spurious relationship“, also der Scheinkorrelationen, und auch nicht „GIGO“. Kritisch zu bewerten ist hier vielmehr die Methode des „Voter Targeting“. Basierend auf Big-Data-Analytics können Daten, die Bürger beispielsweise auf Facebook oder anderen sozialen Netzwerken und Blogs hinterlassen, analysiert werden, um ein psychologisches Profil zu erstellen und in einem nächsten Schritt Wähler zielgenau mit Wahlbotschaften und Fake-News zu versorgen. Das Unternehmen Cambridge Analytica hat sowohl bei der letzten US- Wahl für Trump derartige Analysen durchgeführt als auch für die „Brexit“-Befürworter (Leave.eu-Kampagne). Inwieweit die Big-Data-Experten tatsächlich die Wahl beeinflusst haben, ist unter Experten äußerst umstritten. Cambridge Analytica hat im Nachhinein auch die Beeinflussung des Brexit-Votums dementiert, nachdem die britische Datenschutzbeauftragte eine Untersuchung der Vorgänge eingeleitet hatte. Fakt ist jedoch, dass eine solche Wählermanipulation mithilfe von Big-Data-Analytics und Fake News grundsätzlich möglich ist. Und darüber sollten wir einen kritischen Diskurs führen. FIRM-Redaktion: Wie lassen sich solche Fehlentwicklungen im Big-Data-Umfeld verhindern? Frank Romeike: Wenn die Zusammenhänge und Hypothesen nicht verstanden werden, bleiben die Muster und Korrelationen von Big Data weitgehend zufällig. Wir sollten uns davor hüten, in jeder statistischen Korrelation sofort eine Kausalität zu identifizieren. Basierend auf Kants „Kritik der Urteilskraft“ existieren eine bestimmende sowie eine reflektierende Urteilskraft. Die bestimmende Urteilskraft subsumiert etwas Besonderes unter ein gegebenes Gesetz bzw. eine Regel, während die reflektierende zum gegebenen Besonderen das Allgemeine finden soll. Übertragen auf die Welt von „Big Data“ und „Predictive Analytics“ bedeutet dies, dass wir die massive Datenflut mit Theorien und Gesetzen verknüpfen müssen. Es sei hier an den bereits zitierten Newton erinnert. Und was noch wichtiger ist: Wir müssen uns als Menschen und auch als Gesellschaft mit der Frage beschäftigen, wie viel (vermeintliche) Sicherheit und Vorhersehbarkeit auf der einen Seite sowie Freiheit und Risiko auf der anderen Seite gewünscht ist. Wünschen wir überhaupt eine solche Beschleunigung des menschlichen Erkenntnisprozesses – ohne emotionale und soziale Intelligenz? Ernest McCutcheon: In meiner letzten Antwort habe ich von Vorsicht gesprochen. Vorsicht ist aber nicht mit Verbot gleichzusetzen. Durch die Nutzung von Big-Data-Analysen können Entscheidungen getroffen werden, die positive Auswirkungen haben. Einige Beispiele: Durch die Analyse von Mobilitätsdaten werden die Echtzeit-Verkehrsinformationen und -Verkehrsprognosen immer besser. Energieanbieter können dafür sorgen, dass die Stromproduktion dann anläuft, wenn Strom gebraucht wird. Lebensmittelfirmen können dafür sorgen, dass die richtige Menge an Frischprodukten in den Filialen zur richtigen Zeit verfügbar ist und weniger entsorgt werden muss. Wir bekommen Produkte und Dienstleistungen angeboten, die uns wirklich interessieren. Alles in allem meine ich, die Lebensqualität von uns individuell, aber auch die der Gesellschaft allgemein kann durch die Nutzung von Big Data gesteigert werden. Jedoch denke ich, dass man in der Ausbildung von Data Scientists durchaus auf die Risiken des Missbrauchs hinweisen soll, ebenso wie auf mögliche Fehlerquellen. Zum Beispiel sollte man ihnen helfen, beim Design ihrer Analysen sogenannte „geschlossene Feedback Loops“ zu vermeiden. Bei Studien oder Analysen wird oft vergessen, Kontrollgruppen zu bilden. Darüber hinaus soll man nicht alles, was möglich ist, auch tun. Speziell wenn es um menschliche Existenzen geht, ist besondere Vorsicht geboten, und hier könnte man sich durchaus auch gesetzliche Verbote vorstellen. Das Gros der Big-Data-Analysen betrifft aber nicht solche Themen. Allein die Natur bietet viele Gelegenheiten, Big-Data-Analysen durchzuführen. Die daraus gewonnenen Erkenntnisse können genutzt werden, um die Umwelt zu verbessern und im Agrarbereich Erträge zu steigern, bei gleichzeitiger Verminderung der Verwendung von Kunstdünger. FIRM-Redaktion: Das heißt, es mangelt an methodischen Ansätzen in Organisationen, um zu einem „geordneten“ Umgang mit der Datenflut zu gelangen? Ernest McCutcheon: So könnte man das sehen, aber ich sehe die Situation differenzierter. Auf der einen Seite gibt es Organisationen, die bereits sehr weit vorgeschritten sind. In den meisten Organisationen aber geht es eher darum, die neuen Möglichkeiten und Herausforderungen zu verstehen und dann methodische Ansätze zu entwickeln. Meiner Meinung nach ist „Big Data“ für die meisten Firmen heute noch kein Thema. Viele Organisationen setzen häufig „viele Daten“ mit Big Data gleich. Aber in der allgemeinen Definition von

RISIKO MANAGER

RISIKO MANAGER 01.2019
RISIKO MANAGER 02.2019
RISIKO MANAGER 03.2019
RISIKOMANAGER_04.2019
RISIKO MANAGER 05.2019
RISIKO MANAGER 06.2019
RISIKO MANAGER_07.2019
RISIKO MANAGER 08.2019
RISIKO MANAGER 09.2019
RISIKO MANAGER 10.2019
RISIKO MANAGER 01.2018
RISIKO MANAGER 02.2018
RISIKO MANAGER 03.2018
RISIKO MANAGER 04.2018
RISIKO MANAGER 05.2018
RISIKO MANAGER 06.2018
RISIKO MANAGER 07.2018
RISIKO MANAGER 08.2018
RISIKO MANAGER 09.2018
RISIKO MANAGER 10.2018
RISIKO MANAGER 01.2017
RISIKO MANAGER 02.2017
RISIKO MANAGER 03.2017
RISIKO MANAGER 04.2017
RISIKO MANAGER 05.2017
RISIKO MANAGER 06.2017
RISIKO MANAGER 07.2017
RISIKO MANAGER 08.2017
RISIKO MANAGER 09.2017
RISIKO MANAGER 10.2017
RISIKO MANAGER 01.2016
RISIKO MANAGER 02.2016
RISIKO MANAGER 03.2016
RISIKO MANAGER 04.2016
RISIKO MANAGER 05.2016
RISIKO MANAGER 06.2016
RISIKO MANAGER 07.2016
RISIKO MANAGER 08.2016
RISIKO MANAGER 09.2016
RISIKO MANAGER 10.2016
RISIKO MANAGER 01.2015
RISIKO MANAGER 02.2015
RISIKO MANAGER 03.2015
RISIKO MANAGER 04.2015
RISIKO MANAGER 05.2015
RISIKO MANAGER 06.2015
RISIKO MANAGER 07.2015
RISIKO MANAGER 08.2015
RISIKO MANAGER 09.2015
RISIKO MANAGER 10.2015
RISIKO MANAGER 11.2015
RISIKO MANAGER 12.2015
RISIKO MANAGER 13.2015
RISIKO MANAGER 15-16.2015
RISIKO MANAGER 17.2015
RISIKO MANAGER 18.2015
RISIKO MANAGER 19.2015
RISIKO MANAGER 20.2015
RISIKO MANAGER 21.2015
RISIKO MANAGER 22.2015
RISIKO MANAGER 23.2015
RISIKO MANAGER 24.2015
RISIKO MANAGER 25-26.2015
 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.