Industrie 4.0 : optimiser les approvisionnements avec la Data et l’IA

INDUSTRIE 4.0 : OPTIMISER LES APPROVISIONNEMENTS AVEC LA DATA ET L'IA

L’Industrie 4.0 représente une révolution qui va modifier en profondeur la manière dont le monde industriel travaille et s’organise.

L’un des apports de l’IA dans le monde industriel est la capacité à optimiser la manière dont les approvisionnements sont gérés. En effet, pour un groupe industriel, la capacité à anticiper les approvisionnements en prenant en compte les spécificités des géographies, les temps de transport, les transferts de matières premières entre les sites de production, les sites d’approvisionnements et tous les acteurs de la chaîne, apporte une plus-value indéniable.

Dans un monde où la personnalisation de produit est de plus en plus présente, et donc où les matières premières sont de plus en plus diverses, l’IA devient indispensable pour préserver ou amplifier sa différenciation.

Cet article présente comment les plateformes Big Data basées sur Hadoop peuvent apporter une solution efficace et économique à cette problématique.

L’acquisition de données  

L’apport du Big Data dans la gestion des approvisionnements réside notamment en la capacité à absorber, centraliser et traiter toutes les données suivantes :

Données terrain :

    • Les stocks en temps réel et historisés de tous les entrepôts sur toutes les géographies pour toutes les matières premières ;
    • Les cadences de production de chaque usine, sur chaque produit, en temps réel et en planifié.

Données statistiques, internes ou externes :

    • Les temps de livraison des matières premières en fonction de la période de l’année et des fournisseurs ;
    • Les prix historisés et actuels et historisés de toutes les matières premières par fournisseur enregistrés auprès de l’industriel ;
    • Les prix des matières premières pour les fournisseurs non-enregistrés auprès de l’industriel ;
    • Cours des matières premières.

Grâce aux capacités de stockage et de traitements des plateformes Hadoop/Spark, ces données peuvent être historisées et exploitées sous leur forme brute quelque soit leur volume.

Le succès de la démarche repose sur la centralisation de toutes ces données et de la capacité à les croiser, les transformer, et à appliquer des traitements de manière simple, performante, et efficace. L’acquisition de données est donc un élément essentiel.

Elle se caractérise par deux types de flux :

  • Flux temps réel : flux avec un débit ou une fréquence élevé notamment nécessaire pour le suivi de la chaîne de production en termes de cadences et de consommations ;
  • Flux batch : flux par envoi périodique d’un ensemble conséquent de données.

Flux temps réel

L’acquisition des flux temps réel doit se faire par le biais d’un composant de plateforme capable d’absorber de fortes charges tout en garantissant la non perte de données pendant le flux d’acquisition. Pour ce faire, les plateformes de traitements Big Data sont généralement adossées à un système d’acquisition de données temps réel de type « plateforme IoT ».
Pour garantir l’absorption des pics de charge et la non perte de données, un gestionnaire de messages de type Apache Kafka est intégré à la réception des données.
Les traitements appliqués sur les flux temps réel sont réalisés via le module de streaming de Spark qui va permettre d’exécuter des traitements de nettoyage/enrichissement/transformation au flux de données « live ».

Flux Batch

Les flux batchs sont intégrés de manière périodique, généralement sur une forte volumétrie et doivent être absorbés en un laps de temps minime. Les capacités de traitements des plateformes Big Data/Spark fournissent des outils très puissants pour réaliser ce type de traitements. Des batchs exécutés par Spark sur une plateforme de traitements distribués permettent de vérifier, de transformer et d’enrichir les données.
Les outils de l’écosystème Hadoop tels que Apache Flume et Apache Oozie, qui permettent respectivement d’intégrer des données et de planifier des traitements, peuvent être intégrés à la plateforme pour répondre aux besoins d’intégration de flux.

Voici un exemple de plateforme centrale capable de traiter le cas de l’optimisation des approvisionnements

Traitements et algorithmes  

Une fois les données intégrées et centralisées, des traitements statistiques à grande échelle  peuvent autant être appliqués que l’entraînement de modèles de Machine Learning. Ces traitements permettront d’anticiper les besoins en matières premières à très court terme (jours) et à moyen terme (semaines), site par site.

Les librairies de Machine Learning intégrées à Spark (Random Forest, Gradient Boosted Trees, …) combinées à l’ensemble des librairies Python ou Scala de Machine Learning et de Deep Learning sont facilement applicables à l’ensemble des données de tous les sites de production, à un niveau de granularité très fin, et produire des modèles de prédiction très précis.

Grâce à ces technologies, les besoins en matières premières s’anticipent tout en prenant en considération des facteurs externes à l’entreprise tels que les tendances du marché ou les cours de la bourse.

La mise en place de ce type de plateformes facilite l’utilisation des prédictions fournies pour exécuter dans un deuxième temps des algorithmes complexes d’optimisation sur les coûts, les délais de livraison, les plannings, les transferts entre sites, …

 

Un exemple d’optimisations court-terme envisageables :

  • Prédictions court-terme sur les besoins en matières premières en fonction des cadences de production ;
  • Planification de transferts de matières premières entre sites de production (réduction du « waste ») en fonction des besoins, des délais de transfert, … ;
  • Préparation automatisée des commandes de matières premières en optimisant le coût et en tenant compte des délais de livraison.

Une illustration d’optimisations long-terme envisageables :

  • Proposition automatique de changements de fournisseurs ;
  • Proposition automatique de planning de fabrication usine par usine, chaîne par chaîne, en optimisant les mouvements de matières premières et les coûts.

Les possibilités offertes par cette approche sont très nombreuses et sont à définir une fois les données disponibles et exploitables sur des plateformes capables de les traiter.

Une mise à disposition de ces données dans un  datalake, récoltées, par exemple, dans le cadre de l’optimisation des approvisionnements, ouvre des possibilités telles que  : l’utilisation des  remontées des chaînes de production pour monitorer la production, ou encore un système d’alertes en temps réel des incidents.

La composante temps réel de l’acquisition de données combinée aux possibilités de croisements avec des informations provenant de multiples sources, offre de nombreuses possibilités d’optimisation des processus de l’Industrie qui aspirent, aujourd’hui, à être déployées et améliorées.

Les outils de l’écosystème Hadoop fournissent un socle efficace pour répondre à des besoins de prédictions d’approvisionnement en matières premières.

Ce cas d’usage illustre la manière dont la centralisation des données dans un datalake disposant de fortes ressources de traitements offre de nombreuses possibilités pour créer des outils d’aide à la décision pour le management global des industries.

Les technologies sont disponibles. Les apports sont réels. Aujourd’hui la difficulté que rencontre les industriels est la mise en œuvre d’une stratégie « Informatique & Data » de manière structurelle au sein de leur organisation. Une collaboration étroite entre le monde de l’Industrie et les spécialistes du Digital favorisera l’adoption de ces novuelles technologies par les industriels.