Les auto-encodeurs

Comment le Deep Learning peut faciliter la LCB/FT ?

Use case : les auto-encodeurs 

La lutte contre le blanchiment de capitaux et le financement du terrorisme (LCB-FT) est un enjeu majeur qui justifie des dispositifs adaptés afin d’identifier des opérations suspectes. Une des méthodes de détection consiste à contrôler les transactions financières susceptibles de représenter une action de blanchiment. Les établissements financiers sont, par ailleurs, soumis à des dispositions règlementaires. Par exemple, une banque est dans l’obligation de disposer d’un système d’alertes permettant de signaler toute opération suspecte auprès de la cellule française de la LCB-FT, connue sous le nom de TRACFIN (Traitement du Renseignement et ACtion contre les circuits FINanciers clandestins).

À ce jour, la plupart des alertes issues de ces systèmes s’appuient sur des règles métier paramétrées par les utilisateurs, notamment les équipes Risques/Conformité. Ces règles nécessitent une maintenance en continu afin de les faire évoluer, souvent avec l’objectif de remonter de nouveaux types de transactions à risques. Cette nécessité d’évolution augmente le volume d’alertes générées : le taux de faux positifs peut décupler lorsque les règles manquent de précision ce qui impacte le nombre de dossiers à traiter par les analystes en charge du traitement de celles-ci. L’intégration de l’Intelligence Artificielle, notamment le Deep Learning, aux systèmes d’alertes actuels offre de nouvelles opportunités d’amélioration.

Comment le Deep Learning peut améliorer les systèmes d’alertes LCB/FT actuels ?  

L’accroissement du volume des données dans le secteur financier permet aujourd’hui d’utiliser des solutions d’Intelligence Artificielle par apprentissage pour la LCB-FT. La mise en place de modèles prédictifs peut aider à identifier des transactions ou des profils liés au blanchiment et/ou au financement du terrorisme.

Prenons le cas de la détection de profils criminels par l’apprentissage d’un algorithme de classification.

L’apprentissage supervisé

La mise en place d’un apprentissage supervisé de comportements suspects permet d’identifier les potentiels criminels. Or, ce type de profils/transactions constituent (fort heureusement) une infime partie des flux. L’apprentissage sur un jeu de données très déséquilibré conduit souvent à une mauvaise prédiction. Le modèle aura toujours tendance à prédire la classe dominante, par exemple, ici les flux légitimes. Or, les équipes de lutte contre le blanchiment recherchent tout l’inverse : identifier les risques réels.

L’apprentissage non-supervisé

L’apprentissage non-supervisé permet de détecter les données atypiques par le regroupement de comportements similaires. Un apprentissage non-supervisé ne nécessite pas de données étiquetées (« labélisées »). L’objectif est de déduire la structure naturelle présente dans le jeu dédié à l’apprentissage.

Une approche dans ce type de problématique est l’utilisation des auto-encodeurs. Faisant partie des réseaux de neurones artificiels, les auto-encodeurs sont souvent utilisés dans l’apprentissage des caractéristiques discriminantes d’un ensemble de données. Ils permettent également de résoudre le problème des classes déséquilibrées, en passant par une détection d’anomalie.

Comment fonctionnent les auto-encodeurs ?

Les auto-encodeurs ont la capacité d’apprendre des représentations des données d’entrée, de manière non-supervisée. Ils possèdent, généralement, la même architecture qu’un perceptron multicouches. Cependant, comme ils apprennent à copier les données d’entrée vers leurs sorties, le nombre de neurones de la couche de sortie est égal au nombre de neurones de la couche d’entrée.

Un auto-encodeur est constitué de deux parties : l’encodeur et le décodeur (voir schéma ci-dessous).

Architecture d’un auto-encodeur

Encodeur : il prend les données non étiquetées de grande dimension n en entrée et les compresse vers une plus petite dimension.

Décodeur : il prend les données compressées et les reconstruit vers la dimension n, de sorte qu’elles soient presque similaires (voir identiques) aux données d’entrée.

Pour s’assurer d’un entrainement correct de l’auto-encodeur, une solution consiste à comparer les données d’entrées aux données reconstruites. Afin d’avoir des données sensiblement similaires, l’erreur de reconstruction doit être limité.

Comment une nouvelle représentation des données par les auto-encodeurs peut faciliter la LCB-FT ?

Dans le cas de la LCB-FT, les auto-encodeurs sont entrainés pour apprendre la représentation de profils non-criminels. Les données reconstruites pour lesquelles on détecte une grande erreur lors de la reconstruction sont considérées comme des anomalies. Les profils suspects sont alors identifiés par l’algorithme et des alertes peuvent être déclenchées en conséquence. Dans cette approche, le taux de faux positifs est ainsi considérablement réduit.

La place de l’Intelligence Artificielle dans la LCB/FT 

L’intégration des auto-encodeurs dans le système d’alertes LCB-FT actuel offre de nombreux avantages :

  • Avoir des données étiquetées est facultatif ;
  • Les auto-encodeurs s’adaptent facilement à l’évolution des profils délictueux, puisque l’apprentissage se fait uniquement sur les profils non-criminels ;
  • L’intégration des auto-encodeurs est relativement rapide car elle ne nécessite pas de remplacer le système d’alertes actuel ;
  • La combinaison d’un algorithme d’apprentissage supervisé avec les auto-encodeurs permet de catégoriser les alertes générées selon différents niveaux de priorité.

 

L’intégration d’un dispositif de type Deep Learning nécessite, toutefois, un très grand volume de données nécessaire à la phase d’apprentissage. Les algorithmes de Deep Learning sont souvent vus comme une boîte noire ; perception qui freine leur adoption. Cette appréhension s’explique par la difficulté à maîtriser le fonctionnement interne de ce type de modèle.

La combinaison d’un moteur de règles métiers et d’un outil d’évaluation d’alertes générées sur base d’apprentissage automatique augmenterait sensiblement l’efficacité opérationnelle.