Aufrufe
vor 11 Monaten

RISIKO MANAGER 01.2019

  • Text
  • Unternehmen
  • Risiken
  • Risikomanagement
  • Bewertung
  • Risiko
  • Banken
  • Basel
  • Risikoanalyse
  • Heft
  • Unternehmens
  • Risikomanager
RISIKO MANAGER ist das führende Medium für alle Experten des Financial Risk Managements in Banken, Sparkassen und Versicherungen. Mit Themen aus den Bereichen Kreditrisiko, Marktrisiko, OpRisk, ERM und Regulierung vermittelt RISIKO MANAGER seinen Lesern hochkarätige Einschätzungen und umfassendes Wissen für fortschrittliches Risikomanagement.

14 firm Frankfurter

14 firm Frankfurter Institut für Risikomanagement und Regulierung »Die Rolle des Menschen im KI-Umfeld« Künstliche Intelligenz, kurz KI, ist ein Dauerthema in Politik, Wirtschaft und Wissenschaft. Letztere beschäftigt sich in unterschiedlichen Disziplinen mit KI, dem zukünftigen Leben von Menschen im KI-Zeitalter, deren Transformation und einer möglichen Superintelligenz als kommendem Schritt in der Evolution. Wir sprachen mit Dr. Janina Loh, Universitätsassistentin (Post-Doc) im Bereich Technik- und Medienphilosophie an der Universität Wien, über Trans- und Posthumanismus, der Rolle des Menschen im KI-Umfeld und den Einsatz von Algorithmen im Finanzdienstleistungsbereich.

15 Ausgabe 01/2019 FIRM-Redaktion: Frau Loh, der Titel Ihres Buches zum »Trans- und Posthumanismus« klingt sehr akademisch. Können Sie für unsere Leser kurz zusammenfassen, was sich dahinter verbirgt? Janina Loh: Der Transhumanismus (beispielsweise Nick Bostrom, Max More und Stefan Lorenz Sorgner) will den Menschen technologisch weiterentwickeln, optimieren, modifizieren und verbessern. Durch radikale Lebensverlängerung, neue kognitive und emotionale Wahrnehmungsmöglichkeiten soll der jetzige Mensch zu einem posthumanen (aber immer noch menschlichen) Wesen werden. Der technologische Posthumanismus (beispielsweise Ray Kurzweil, Hans Moravec und Marvin Minsky) ist auch an der Transformation des Menschen interessiert, viel mehr aber noch an der Entwicklung einer künstlichen Superintelligenz, die dann den nächsten Schritt der Evolution darstellt und die Singularität einläutet, wenn sich das menschliche Dasein komplett verändert haben wird. Der kritische Posthumanismus (beispielsweise Donna Haraway, Rosi Braidotti und Karen Barad – ich verstehe mich selbst als kritische Posthumanistin) hinterfragt die tradierten, zumeist humanistischen Dichotomien wie etwa Frau/Mann, Natur/Kultur oder Subjekt/Objekt, die zur Entstehung unseres gegenwärtigen Menschen- und Weltbilds maßgeblich beigetragen haben. Er möchte ›den‹ Menschen überwinden, indem er mit konventionellen Kategorien und dem mit ihnen einhergehenden Denken bricht. FIRM-Redaktion: Wenn wir das Ganze auf die Künstliche Intelligenz, kurz KI, herunterbrechen, wie lässt sich das Thema hier einordnen und wo sind Querverbindungen zu Ihrer Forschung? Janina Loh: Von Künstlicher Intelligenz ist insbesondere im technologischen Posthumanismus die Rede, wo es vorrangig um die Entwicklung einer starken, künstlichen Superintelligenz geht, die ›den‹ Menschen als ›Krone der Schöpfung‹ ablösen und überholen wird. Zudem habe ich in meiner Arbeit zur Roboterethik natürlich mit dem Thema Künstliche Intelligenz zu tun. FIRM-Redaktion: Bleiben wir bei den beiden Buchstaben KI. Es wird viel über den tiefen Eingriff Künstlicher Intelligenz in Arbeits- und Prozesswelten gesprochen. Wo stehen wir hier Ihrer Meinung nach, auch vor dem Hintergrund selbstlernender Systeme? Janina Loh: In einem schwachen Sinne haben wir unterschiedliche Formen Künstlicher Intelligenz bereits in vielen Bereichen unseres Alltags. Von Suchmaschinen über private artifizielle Assistent*innen, wie Siri und Alexa, bis hin zu Facebook-, Amazon- und Netflix-Algorithmen, die unsere Vorlieben analysieren und uns vor diesem Hintergrund Vorschläge für beispielsweise bestimmte Produkte, die uns gefallen könnten, unterbreiten. In vielen anderen Bereichen treffen wir ebenfalls bereits auf teilautonome und zuweilen zumindest schwach lernfähige Systeme, wie in der Pflege, in der Industrie und im Straßenverkehr. Aber alle diese Technologien sind bis auf weiteres für ganz konkrete Zwecke gemacht, sie haben immer ›Inselbegabungen‹, und selbst wenn sie in einem schwachen Sinne lernfähig sind, sind sie noch lange nicht so flexibel und umfassend einsatzfähig wie Menschen. Ein Schachcomputer kann eben nur Schach spielen (wenn auch das vielleicht besser als die meisten Menschen), nicht aber Auto fahren, bügeln oder unseren Kindern bei den Hausaufgaben helfen. Die Entwicklung einer starken Künstlichen Intelligenz, die ganz so wie die Menschen ist, ist nicht absehbar, und wir müssten uns nun Gedanken darüber machen, ob wir eine solche starke KI überhaupt wollen. FIRM-Redaktion: Und welchen Einfluss hat der Mensch noch auf diese Systeme mit Blick auf die schwachen und starken KI-Hypothesen? Janina Loh: Es gibt nicht ›den‹ Menschen. Es gibt Menschen. Und die haben je nach Platz in der Gesellschaft (was ja auch immer eine konkrete Gesellschaft mit spezifischen politischen und rechtlichen Strukturen ist), finanziellen Möglichkeiten, beruflicher Profession usw. unterschiedliche Weisen der Einflussnahme. Technologische Entwicklungen sind in jedem Fall keine Naturgesetze! Sie sind menschengemacht und unterliegen menschlichen Bedingungen. Nicht alles, was möglich ist, wird notwendig auch wirklich werden. Häufig wird der Diskurs über die Entwicklung und Einführung bestimmter Technologien so geführt, als ob es bereits ausgemacht wäre, dass diese Technologien irgendwann real werden. Dann fragt Nick Bostrom beispielsweise, welche Werte wir einer starken KI implementieren sollen, anstatt die Frage zu stellen, ob wir überhaupt eine starke KI wollen. Die Frage des technologisch Machbaren und des Könnens darf der Frage des (moralisch) Wünschbaren und des Sollens nicht vorangestellt werden. In den empirischen Wissenschaften wird das gerne gemacht bzw. existiert da zumeist über die Entwicklung bestimmter Technologien ein Common Sense dahingehend, dass es natürlich gut und richtig ist, besagte Technologie zu entwickeln und auf den Markt zu bringen. Wir müssen aber die Frage nach dem Wünschbaren und dem Sollen explizit stellen und in der Gesellschaft diskutieren. Für uns als Wissenschaftler*innen bedeutet das, den Diskurs in einer Weise zu beeinflussen, dass er möglichst transparent und verständlich geführt werden kann. Wir entmündigen uns, wenn wir einen gesellschaftlichen und technologischen Determinismus dahingehend vertreten, dass sich das Rad der Geschichte vor unseren Augen einfach abspult und wir keine Möglichkeiten der Beeinflussung haben. FIRM-Redaktion: Besteht nicht die Gefahr, dass der Mensch zum »Juniorpartner der Maschinen« verkommen könnte, wie es »Deutschlandfunk Kultur« jüngst in einem Beitrag nannte? Janina Loh: In den Debatten um KI und die modernen Technologien begegnet man häufig zwei Extremszenarien: die dystopische Sicht, dass die Maschinen die Weltherrschaft an sich reißen werden, und die utopische Sicht, dass wir irgendwann mit Nanobots verschmelzen, unseren Geist auf einen Computer hochladen und dann virtuell unsterblich werden. Wir haben nicht den Luxus, uns auf diese Schwarz-weiß-Sicht der Dinge zu beschränken. Wir müssen uns in den großen, „messy“-Graubereich zwischen diesen Polen hinein wagen und Technologien im Einzelnen und kritisch reflektieren! Wenn Menschen über Roboter reden, wechseln sie häufig sehr schnell von der Ebene des konkreten artifiziellen Systems (beispielsweise dieser Schachcomputer ist sehr viel besser darin, Schach zu spielen als die meisten Menschen) zur allgemeinen Ebene ›der‹ Maschine (etwa die Maschinen werden irgendwann ›den‹ Menschen

RISIKO MANAGER

RISIKO MANAGER 01.2019
RISIKO MANAGER 02.2019
RISIKO MANAGER 03.2019
RISIKOMANAGER_04.2019
RISIKO MANAGER 05.2019
RISIKO MANAGER 06.2019
RISIKO MANAGER_07.2019
RISIKO MANAGER 08.2019
RISIKO MANAGER 09.2019
RISIKO MANAGER 01.2018
RISIKO MANAGER 02.2018
RISIKO MANAGER 03.2018
RISIKO MANAGER 04.2018
RISIKO MANAGER 05.2018
RISIKO MANAGER 06.2018
RISIKO MANAGER 07.2018
RISIKO MANAGER 08.2018
RISIKO MANAGER 09.2018
RISIKO MANAGER 10.2018
RISIKO MANAGER 01.2017
RISIKO MANAGER 02.2017
RISIKO MANAGER 03.2017
RISIKO MANAGER 04.2017
RISIKO MANAGER 05.2017
RISIKO MANAGER 06.2017
RISIKO MANAGER 07.2017
RISIKO MANAGER 08.2017
RISIKO MANAGER 09.2017
RISIKO MANAGER 10.2017
RISIKO MANAGER 01.2016
RISIKO MANAGER 02.2016
RISIKO MANAGER 03.2016
RISIKO MANAGER 04.2016
RISIKO MANAGER 05.2016
RISIKO MANAGER 06.2016
RISIKO MANAGER 07.2016
RISIKO MANAGER 08.2016
RISIKO MANAGER 09.2016
RISIKO MANAGER 10.2016
RISIKO MANAGER 01.2015
RISIKO MANAGER 02.2015
RISIKO MANAGER 03.2015
RISIKO MANAGER 04.2015
RISIKO MANAGER 05.2015
RISIKO MANAGER 06.2015
RISIKO MANAGER 07.2015
RISIKO MANAGER 08.2015
RISIKO MANAGER 09.2015
RISIKO MANAGER 10.2015
RISIKO MANAGER 11.2015
RISIKO MANAGER 12.2015
RISIKO MANAGER 13.2015
RISIKO MANAGER 15-16.2015
RISIKO MANAGER 17.2015
RISIKO MANAGER 18.2015
RISIKO MANAGER 19.2015
RISIKO MANAGER 20.2015
RISIKO MANAGER 21.2015
RISIKO MANAGER 22.2015
RISIKO MANAGER 23.2015
RISIKO MANAGER 24.2015
RISIKO MANAGER 25-26.2015
 

Copyright Risiko Manager © 2004-2017. All Rights Reserved.