Künstliche Intelligenz (KI) wird im Alltag der Menschen immer präsenter und hat sich in den letzten Jahren als zentrales Trendthema, zum Beispiel durch Sprachassistenten oder Smart Homes, etabliert. Beschleunigt durch die fortschreitende Digitalisierung setzt sich KI zunehmend durch und erreicht - später als andere Branchen - auch die Finanzdienstleistungsbranche. Das Potential von KI wird von Banken zwar erkannt, jedoch noch nicht vollumfänglich ausgeschöpft. Vor dem Hintergrund der zunehmenden Regulatorik und dem erhöhten Wettbewerbsdruck der Branche stellt der Einsatz von KI eine zentrale Herausforderung dar.

Was versteht man allgemein unter Künstlicher Intelligenz (KI)?  

Bank

Aufgrund unterschiedlicher Interpretationen haben sich im Laufe der Zeit einige Definitionsansätze für KI entwickelt. KI wird als Teilgebiet der Informatik definiert, welches versucht, menschliche Vorgehensweisen der Problemlösung nachzubilden, um auf diesem Wege neue oder effizientere Aufgabenlösungen zu erreichen. Eine Methode der KI ist das Machine Learning (ML), bei der das System selbstständig Wissen aus einem vorhandenen Datenbestand und Algorithmen generiert und auf dieser Basis Vorhersagen oder Entscheidungen trifft.

Der Einsatz von KI kann, wie jede große Innovation, für die Gesellschaft und Wirtschaft sowohl eine Chance als auch ein Risiko bedeuten. Die Fähigkeiten von KI-gestützten Systemen haben in den letzten Jahren so stark zugenommen, dass für ihr Design und ihren Einsatz fast kein menschliches Eingreifen mehr erforderlich ist. Chancen werden im Bankensektor in der Beurteilung und Abwicklung von Kreditanfragen, in der Betrugserkennung sowie in der Bewertung von Risiken und Entscheidungsunterstützungen im Controlling gesehen. Risiken gehen mit dem Blackbox-Prinzip einher, sodass eine transparente Nachvollziehbarkeit und Erklärbarkeit, über das Zustandekommen der Ergebnisse bzw. Entscheidungen durch ML-Modelle, nur bedingt gegeben ist. Insbesondere im Bankensektor ist Transparenz jedoch von zentraler Bedeutung.

Vor dem Hintergrund der starken Regulatorik und den gesetzlichen Offenlegungspflichten agieren Banken in Bezug auf KI noch zurückhaltend. Nicht alle Ansätze erwecken den Anschein, in dem Zusammenhang tragfähig und im Rahmen der Herausforderungen der Finanzdienstleistungsbranche belastbar zu sein. Der PwC Studie „How mature is AI adoption in financial services” aus dem Jahr 2020 zufolge, wird unter anderem die mangelnde Transparenz der KI-Algorithmen als Grund für die Zurückhaltung genannt. Was sollte transparenter dargestellt werden, für wen und mit welchem konkreten Ziel? Zur Beantwortung dieser Fragen müssen Themen wie Verantwortlichkeit, Fairness, Rückverfolgbarkeit, Datenschutz und -qualität, Sicherheit und Verbraucherschutz unter analytischen Aspekten Berücksichtigung finden. 

Banken bewegen sich derzeit in einem frühen Stadium der ML-Nutzung, deren Schwerpunkt sich auf prädiktiven Analysen beläuft. Komplexere Modelle bringen mehr Chancen mit sich, führen jedoch zu Problemen der Erklärbarkeit und Interpretierbarkeit. Transparenz ist in der stark regulierten Finanzdienstleistungsbranche essentiell, weshalb sich die Branche in einem Spannungsfeld zwischen technologischer Innovation und regulatorischer Anforderung bewegt.

Auch die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) setzt sich mit KI und den daraus folgenden Implikationen für die Aufsicht auseinander. Transparenz hat auch hier eine besonders hohe thematische Relevanz. Laut BaFin ist ein Verweis auf das Blackbox-Prinzip von KI unzulässig und Entscheidungsprozesse müssen zu jedem Zeitpunkt nachvollziehbar sein. Die Aufsicht betont, dass die Verantwortung von durch KI getroffenen Entscheidungen immer den Finanzdienstleistungsunternehmen, nicht den KI-Technologien selbst, obliegt. Auch die Regulatorik steht vor der Herausforderung ihre Aufsichtstechniken an die Innovationsgeschwindigkeit der beaufsichtigten Unternehmen anzupassen. 

Der Wunsch, Einblicke in die algorithmische Blackbox zu erhalten, scheint in der heutigen Gesellschaft omnipräsent. Für die Akzeptanz von KI-unterstützten Systemen müssen Themen wie Erklärbarkeit und Nachvollziehbarkeit bereits bei der Entwicklung bedacht und implementiert werden. Wichtig ist, dass interne Entscheidungsprozesse in einer für den Menschen verständlichen Weise direkt nachvollzogen und wesentliche Einflussfaktoren, die zu dieser Entscheidung geführt haben, benannt werden können.

Die Bertelsmann Stiftung hat zusammen mit dem iRights.Lab neun Prinzipien, sogenannte Algo.Rules, für die ethische Entwicklung und den Einsatz algorithmischer Systeme entwickelt. Die Entwicklung dieser Prinzipien ist aus einem offenen und partizipativen Prozess mit über 400 Beteiligten entstanden. Es handelt sich dabei um einen Katalog mit formalen Kriterien, welche interdependent und als Gesamtkomplex zu betrachten sind:

  1. Kompetenz aufbauen
    Die Funktionsweise und die möglichen Auswirkungen eines algorithmischen Systems müssen verstanden werden.

  2. Verantwortung definieren
    Für die Auswirkungen des Einsatzes eines algorithmischen Systems muss stets eine natürliche oder juristische Person verantwortlich sein.

  3. Ziele und erwartete Wirkung dokumentieren
    Die Ziele und die erwartete Wirkung eines algorithmischen Systems müssen vor dessen Einsatz dokumentiert und abgewogen werden.

  4. Sicherheit gewährleisten
    Die Sicherheit eines algorithmischen Systems muss vor dessen Einsatz getestet und fortlaufend gewährleistet werden.

  5. Kennzeichnung durchführen
    Der Einsatz eines algorithmischen Systems muss gekennzeichnet sein.

  6. Nachvollziehbarkeit sicherstellen
    Die Entscheidungsfindung eines algorithmischen Systems muss stets nachvollziehbar sein.

  7. Beherrschbarkeit absichern
    Ein algorithmisches System muss während seines gesamten Einsatzes gestaltbar sein und bleiben.

  8. Wirkung überprüfen
    Die Auswirkungen eines algorithmischen Systems müssen regelmäßig überprüft werden.

  9. Beschwerden ermöglichen
    Fragwürdige oder die Rechte einer betroffenen Person beeinträchtigende Entscheidungen eines algorithmischen Systems müssen erklärt und gemeldet werden können.

Transparenz ist die Grundvoraussetzung für die Anwendung von durch ML-Modelle getroffenen Entscheidungen und Vorhersagen. Werden Daten, Merkmale, Algorithmen und Methoden nicht zur externen Einsichtnahme zur Verfügung gestellt, kann ein Mangel an Vertrauen und die Nichtanwendung resultieren. Um die Effektivität von KI-unterstützten Systemen nicht einzuschränken und dem Risiko des Blackbox-Prinzips und der damit einhergehenden Intransparenz entgegenzuwirken, gilt es einen Kompromiss zwischen der Leistung eines Modells und seiner Transparenz zu schaffen. In dem Zusammenhang kann Explainable Artificial Intelligence (XAI) Abhilfe schaffen.

Was versteht man unter Explainable Artificial Intelligence (XAI)? 

XAI zielt auf die Entwicklung von maschinellen Lerntechniken ab, die in der Lage sind, die Funktions- und Arbeitsweise von KI-Modellen sowie deren erzielten Resultate verständlich zu präsentieren. Ziel ist, dass menschliche Nutzer:innen in der Lage sind, die KI-Modelle zu verstehen, ihnen angemessen zu vertrauen und sie effektiv zu steuern.

XAI ist ein entscheidendes Merkmal für den praktischen Einsatz von KI-Modellen. Die Herausforderung bei der Umsetzung besteht darin, dass die Banken eine Balance aus Performance und Erklärbarkeit erreichen müssen. Dies erleichtert zum einen die Arbeit der Aufsicht, zum anderen werden auch Persönlichkeitsrechte bei der Kreditvergabe geschützt. 

Abschließend können zentrale Aspekte wie folgt geschlussfolgert werden. KI ist für die Bankenbranche von zentraler und strategischer Bedeutung und gehört zu den wichtigsten Zukunftstechnologien. Dennoch kann eine erfolgreiche und gesellschaftlich akzeptierte Integration von KI in der Finanzdienstleistungsbranche nur dann gelingen, wenn die Unternehmen auf Datensouveränität, Transparenz und Vertrauenswürdigkeit beim Einsatz von KI setzen. Offenheit kann in diesem Kontext als Treiber für innovative Lösungen fungieren.

 

Haben Sie Fragen zu dem Thema Künstliche Intelligenz oder möchten Sie KI in Ihre Prozesse einbinden? Sprechen Sie uns gerne an – wir freuen uns auf Ihre Kontaktaufnahme per E-Mail an kontakt@bbht.de. 

Maurin Kröger
Autor: Maurin Kröger
Maurin Kröger ist als Business Analystin bei der BBHT Beratungsgesellschaft tätig. Ihre fundierten Kenntnisse und Erfahrungen in der Finanzwirtschaft bringt sie seit 2020 in die Projekte unserer Kunden ein.

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.