Für das Erkennen verdächtiger Geldwäsche-Aktivitäten ihrer Kunden setzen Banken vor allem auf regelbasierte Anwendungen in ihren Detektionsprozessen, um gängige, aber auch spezielle Geldwäsche-Aktivitäten zu identifizieren. Die Regeln werden vorab definiert, implementiert und - den Umständen entsprechend - bei Bedarf in den Schwellenwerten regelmäßig angepasst, um die bestmögliche Trefferrate von verdächtigen Kunden zu erhalten.
Der Output dieser regelbasierten Anwendungen ist eine Klassifizierung in "positiv", also verdächtige, und "negativ", also unverdächtige Kunden. Die positiven Fälle werden an manuell durchgeführte Investigationsprozesse übergeben, in denen festgestellt wird, ob der Anfangsverdacht widerlegt werden kann oder ob sich der Verdacht erhärtet und schließlich zur Anzeige gebracht wird.
Im Rahmen einer Machbarkeitsstudie für eine Bank ("Proof of Concept, POC") haben Geldwäsche-Präventionsexperten und das KI-Lab Team von Sopra Steria Consulting diesen mehrstufigen Investigationsprozess analysiert und auf Einsatzbereiche für Machine-Learning-Algorithmen überprüft. Die Aufgabe war, aus den verfügbaren Informationen wie Kundenstamm-, Konto- und Transaktionsdaten auffällige Muster und Korrelationen automatisch zu erkennen, um die Prüfer während des Investigationsprozesses mit diesen Informationen bei ihren Entscheidungen zu unterstützen.
Algorithmen unterstützen manuelle Prozesse
Für die Studie sollten selbstlernende Algorithmen zur Unterstützung manueller Prüfungen eingesetzt werden. Durch die Fähigkeit der Algorithmen, aus Daten kontinuierlich zu lernen, wurden bestehende, aber auch neue potenzielle Geldwäsche-Aktivitäten schnell erkannt.
Das Ergebnis der Klassifizierung durch den Algorithmus wird als Prozentwert zwischen null und 100 ausgegeben und steht für die Sicherheit, mit der der Algorithmus annimmt, dass der Kunde kein potenzieller Geldwäscher ist und der Anfangsverdacht im weiteren Verlaufe der Untersuchung widerlegt wird. Eine hundertprozentige Sicherheit wird es hier nicht geben, da das Modell nur eine Annäherung an die reale Welt sein kann. Der Algorithmus kann zu einer der folgenden Einschätzungen gelangen:
Der Algorithmus stuft einen Kunden korrekt ein, entweder als potenziellen Geldwäscher oder nicht als Geldwäscher.
Der Algorithmus stuft den Kunden falsch ein und klassifiziert ihn als Geldwäscher, obwohl er in Wirklichkeit nicht auffällig ist (ein sogenannter Betafehler)
Der Algorithmus übersieht einen echten Geldwäscher. Das wäre der schlimmste anzunehmende Irrtum und wird daher als Alphafehler klassifiziert.
Es ist Teil des Prozesses, den Prozentwert zu definieren, von dem ab ein Kunde als nicht potenzieller Geldwäscher klassifiziert werden soll. Um diese Frage beantworten zu können, müssen die Ergebnisse des Modells genau untersucht werden. Dazu gehört auch die Abwägung mit der Risikobereitschaft der Bank.
Beispiel 1: Die Klassifizierungsgrenze für einen nicht potenziellen Geldwäscher liegt bei 70 Prozent. Erhält ein Kunde von dem Algorithmus einen Klassifizierungswert von 73 Prozent, wird er als "nicht potenzieller Geldwäscher" klassifiziert. Eine weitere Investigation wäre damit unnötig. Es besteht allerdings ein gewisses Risiko für den Alphafehler, dass dieser Fall fälschlicherweise geschlossen wurde.
Beispiel 2: Bei einer niedrigeren Risikobereitschaft und einer entsprechend höheren Klassifizierungsgrenze von beispielsweise 80 Prozent wird dieser Kunde nicht mehrals nicht auffällig klassifiziert. Stattdessen erfolgt eine manuelle (Zusatz-) Prüfung. Dadurch sinkt das Risiko einer Falschbeurteilung.
Neben der automatischen Erkennung der nicht weiter zu untersuchenden Kunden werden auch die Kunden identifiziert, die unmittelbar einer vertiefenden Untersuchung zugeführt werden (Beispiel 1: ab 30%, Beispiel 2: ab 20%). An diesen Beispielen wird deutlich, dass es einen direkten Zusammenhang zwischen der Risikobereitschaft von Banken und der Effizienz von Algorithmen bei der Identifikation potenzieller Geldwäscher gibt.
Um nun eine optimale Klassifizierungsgrenze zu bestimmen, werden die konkreten Testergebnisse herangezogen. Durch das Trainieren der Algorithmen mit historischen Daten haben sich zwei Zielgrößen für die Bestimmung der optimalen Klassifizierungsgrenze als relevant herausgestellt: 1. eine möglichst hohe Anzahl an korrekten Klassifizierungen durch den Machine-Learning-Algorithmus und 2. null Toleranz für Alphafehler, hier also für das Nichterkennen von auffälligen Kunden, die im Verlaufe der zugrunde gelegten historischen Untersuchungen als tatsächliche Geldwäscher erkannt wurden. Die Klassifizierungsgrenze kann im Feintuning so lange gesenkt werden, wie in den Testdaten (noch) kein Alphafehler auftritt.
Die höchstmögliche Anzahl an übereinstimmenden Klassifizierungen würde rein rechnerisch bei einer Klassifizierungsgrenze von größer oder gleich 50 Prozent liegen. In diesem Beispiel würden allerdings 20 Fälle als riskant geschlossen, zu denen auch ein Alphafehler gehören würde. In dem Beispiel in der Grafik liegt die optimale Klassifizierungsgrenze also erst bei 90 Prozent, weil bei dieser Grenze die höchstmögliche Übereinstimmung bei den Klassifizierungen zwischen Mensch und Algorithmus erzielt und gleichzeitig kein Alphafehler erzeugt wurde.
Allerdings liegt hier bereits eine unterschiedlich riskante Klassifizierung vor, ein Fakt, den wir als "leichten Alphafehler" bezeichnen. Alternativ könnten wir komplett auf eine riskante Klassifizierung im Testdatensatz verzichten, müssten dafür aber die Klassifizierungsgrenze auf 95 Prozent erhöhen. Das wiederum würde aber zu einer Reduktion der korrekt klassifizierten Kunden (dunkelgrüne Spalten) führen.
Praktische Erfahrungen aus dem Proof of Concept und auf der Basis realer Daten legen nahe, dass eine Aufwandsreduktion in der Investigation bis zu 50 Prozent möglich ist, die zudem von deutlichen Verbesserungen bei Qualität und Prozessdauer begleitet würde. Da Machine-Learning-Ergebnisse oft aber nur schwer explizit nachvollzogen werden können, jedoch erheblicher Dokumentationsbedarf in Geldwäsche-Prävention besteht, liegt der Schwerpunkt des Einsatzes zunächst in der Beschleunigung der Prozesse sowie der Verbesserungen der Ergebnisqualität.