Automatisation des process métiers avec l’IA

Automatisation des process métiers avec l'IA

Le RPA (Robotic Process Automation) tire sa définition du principe d’automatisation des tâches répétitives et dont la valeur ajoutée humaine s’avère souvent faible.

Les premiers systèmes se sont basés principalement sur des scripts rejouant des actions répétitives voire des moteurs de règles.

Côté IHM, certains outils permettent de programmer des actions côté poste utilisateur. Côté back-end, on retrouve ces automatisations dans les architectures logicielles dont la conception est réalisée par des démarches de type BPM (Business Process Management). Les gains d’efficacité pour certains cas métiers ont réellement été démontrés, cependant, les tâches complexes peuvent nécessiter des programmes nécessitant beaucoup de paramétrages et une maintenance conséquente.

L’évolution des technologies dans le domaine de l’intelligence artificielle a apporté un nouvel élan pour le RPA. On parle aujourd’hui de SPA (Smart Process Automation), c’est-à-dire combiner de l’automatisation de tâches avec des modules logiciels capables de s’adapter.

                                                          Le principe :

SPA = Logique Métier + Analyse humaine + (Machine Learning + Moteur de règles)

 

  • Logique métier

Cette phase permettra d’identifier les cas pour lesquelles la décision prise par l’automatisation est sans risque pour le métier, ou du moins optimale. En effet, l’indicateur de succès pour toute automatisation de process est un indicateur métier : le gain économique est-il suffisant ? L’erreur résiduelle doit-elle maximiser les « vrais positifs » (les cas traités correctement en automatique) ou minimiser les « faux positifs » (les erreurs de traitement) ? Dans le cas contraire, l’analyse métier réalisée par un expert sera nécessaire.

  • Analyse humaine

En fonction du résultat de l’automatisation, certains cas nécessiteront une expertise métier humaine. L’expert métier réalisera son expertise à partir des données “brutes” mais il pourra également bénéficier :

– De l’interprétation de la prédiction provenant du modèle de machine learning ;

– Du score du moteur de règles, avec les différentes règles déclenchées si nécessaire ;

– Des différentes statistiques à posteriori du modèle de machine learning.

Un processus RPA ou SPA peut inclure des étapes humaines pour traiter les cas aux limites, trop difficiles à traiter en automatique dans l’état actuel de nos technologies.

  • Le machine learning et le moteur de règles

Le cœur de l’automatisation est basé sur la création d’algorithmes de machine learning en combinaison avec des règles métiers qui seront déclenchées par un moteur de règles.

CAS CONCRETS

Pour citer quelques exemples concrets sur lesquels nous avons un retour d’expérience :

Traitement de formulaire automatique avec prédiction sur décision

Le workflow de la solution :

Dans cet exemple, la prédiction peut être effectuée par un algorithme de type XGBT (eXtreme Gradient Boosted Trees), très efficace dans beaucoup de situations. Les cas résiduels difficiles à traiter même par les algorithmes aussi puissants, sont traités par un jeu de règles métier. L’expert métier peut valider la totalité des propositions du processus ou au contraire ne se concentrer que sur les cas où la qualité de traitement est reconnue comme insuffisante.

Le gain business recherché

Gagner en productivité dans le traitement des formulaires, notamment ceux qui nécessitent peu voire aucune analyse humaine.

Traitement de pièces justificatives automatique

Le workflow de la solution :

Dans ce processus, l’extraction d’information par reconnaissance de caractères peut être traité par des modèles de Deep Learning, et le traitement de l’image par des modèles CNN dédiés à la classification, et à la reconnaissance de fraude. La combinaison de différentes approches technologiques pour augmenter la qualité de certains traitements (détection de fraude par exemple) donne de très bons résultats.

Le gain business recherché :

  • Augmenter la détection de fraude sur les documents transmis ;
  • Gagner du temps sur la vérification et la complétude du dossier avec la classification de documents automatiques.

3DS en fonction de la suspicion de fraude

Le workflow de la solution :

Dans ce processus, la combinaison de modèles par apprentissage (Random Forests par exemple car capables d’apprendre sur de très grands volumes données grâce à la facilité de distribution de l’apprentissage sur des clusters de traitements) et les règles métier permettent de décider des transactions ne nécessitant pas de sécurisation renforcée.

Le gain business recherché :

  • Augmenter le taux de conversion des paniers de commande en évitant l’appel au 3DS (3D Secure) sur les transactions sans risques en facilitant l’expérience client des achats sans risques ;
  • Gagner en efficacité sur l’analyse de fraudes potentielles avec les informations provenant de l’algorithme de machine learning et des alertes du moteur de règles.

 

Et techniquement ?

 
Préparation des données

Le type d’outil utilisé dépendra du format et de la volumétrie des données.

Les images

Pour la préparation des images, des outils tels qu’Open CV peuvent être utilisés. Certains réseaux de neurones basés sur des architectures CNN spécialisées ont également montré des résultats très performants. Si le texte de l’image doit être traité, Tesseract s’avère une solution de choix et permet de personnaliser les traitements.

Le TEXTE

Sklearn ou Spark sont les choix les plus simples lorsqu’il s’agit de réaliser des transformations classiques sur du texte (Tokenizaton, Stopwords, Normalization, TF, TFIDF…)

Si le traitement nécessite une approche sémantique plus poussée, spaCy s’avère aujourd’hui le Framework le plus industrialisé et complet en termes de langues possibles.

Une solution pertinente, est l’utilisation de spaCy avec Spark, permettant de réaliser des traitements judicieux sur des grosses volumétries de données.

 

LE MACHINE LEARNING

A ce niveau, tous les usages sont possibles. Dans la plupart des cas, pour une première itération, la priorité sera d’obtenir le meilleur résultat métier avec le minimum d’efforts.

L’infrastructure à disposition sera également un élément déterminant. Si un cluster de machines est disponible, Spark sera le choix de-facto pour obtenir des temps de traitements minimums.

Concernant la création de modèles, les différents outils utilisés peuvent être dans la liste non-exhaustive ci-dessous :

  • Keras;
  • TensorFlow ;
  • Spark ;
  • Scikit-learn ;
  • LightGBM ;
  • XGBoost ;
  • spaCy ;
  • fastText.

Avec toute cette suite, cela couvre déjà une bonne partie des besoins dans la conception d’une solution à base d’IA. De plus, les communautés de ces Frameworks sont très actives et assurent un niveau de pérennité élevé.

 

moteur de rÈgles

Drools existe depuis longtemps et reste un standard dans le monde des moteurs de règles.

 

Depuis quelques années, l’essor des outils Open Source utilisables pour l’IA offre des possibilités techniques très complètes.

La combinaison de ces différentes technologies avec des moteurs de règles permettent de mettre en place des process d’automatisation très performants avec des gains de productivité de 50% à 90% observés.

Alors, à vos données, prêt, automatisez !!!!!!!!