Process Data Lake : un data-lake architecturé pour l’industrie

principe process data lake ou lac de données, des sources de données aux usages et analyses



Le Process Data Lake est un concept que nous avons construit sur de nombreuses années d’expérience à traiter des données industrielles. L’objectif : simplifier la manipulation des données relatives aux procédés de production en industrialisant et en automatisant la chaine de traitement de l’information.

Data Lake, ou lac de données, car il s’agit d’une solution qui a vocation à collecter, stocker et organiser les données pour les restituer à différentes populations d’utilisateurs : opérationnels, équipes R&D, experts procédés, spécialistes de la donnée…

Process, car notre solution embarque nativement les modèles de données et les modèles de traitement nécessaires pour construire les informations relatives aux procédés industriels.

Avec le Process Data Lake, digitalisez dès aujourd’hui votre production industrielle

Le Process Data Lake vous permet de :

  • Réduire le temps d’implémentation de votre projet de digitalisation de votre usine.
  • Faciliter l’usage des données par vos équipes sur le terrain.
  • Bénéficier de toute la puissance de nos infrastructures pour manipuler vos données au meilleur coût.
  • D’être agile tout en gardant la main sur vos traitements de données.
  • Profiter d’une source de données privilégiée pour vos processus de production, grâce à ses capacités et son ouverture.

Une structuration métier des données industrielles

Le Process Data Lake supporte nativement les concepts suivants relatifs à la variété de données rencontrées sur un site industriel :

  • Données temporelles (capteurs, contrôles qualité…) et leur lot de subtilités comme les problématiques de ré-échantillonnage, d’interpolation, extrapolation, réalignement de séries non synchrones,
  • Données relatives à des lots, opérations, campagnes, cycles (recettes, indicateurs, équipe, outillage…)
  • Données relatives à des évènements (arrêts programmés ou non, alertes, changement d’outillage…)
  • Données de traçabilité (où, quand et comment une opération, un lot, a été réalisé) et de généalogie (comment les différentes unités d’œuvre sont reliées entre elle, comment une opération met en œuvre un ou plusieurs lots des opérations précédentes…)
  • Grandeurs de mesure et unités : nous offrons un cadre standard permettant de gérer l’homogénéité des données manipulées ainsi que la traçabilité et la conversion automatique des unités pour le stockage et pour la restitution aux utilisateurs
  • Description et étiquetage des données pour faciliter leur identification et leur regroupement (site, équipement, ligne…) avec le support de plusieurs langues simultanément.
  • Gestion des droits d’accès aux données pour un accès cloisonné aux données en fonction des utilisateurs.

Un traitement des données en continu

Le Process Data Lake intègre également une couche de calcul qui permet de combiner les données entre elles pour les transformer en « informations » en s’appuyant sur la structuration en place. En particulier elle permet de réaliser les calculs avec un large éventail de fonctions (mathématiques, logiques, statistiques, spécifiques aux problématiques rencontrées dans les industries de procédés…).

  • Calculer des indicateurs associés à un lot de production en combinant les informations de traçabilité et celles des capteurs.
  • Calculer un bilan matière en combinant des données de capteurs (par exemple des débits) et des données de laboratoire d’analyse (par exemple des concentrations).
  • Agréger des paramètres dans le temps ou entre eux en fonction de leurs caractéristiques (par exemple pour comparer des lignes de production entre elles, faire des bilans énergétiques)
  • Calculer sans limites avec le module d’exécution de code Python qui permet de gérer l’exécution de votre code. Qu’il s’agisse de calculs numériques, de modèles de Machine Learning ou tout autre traitement réalisable en Python votre code peut être exécuté et produire de nouvelles informations. Vous pouvez ainsi mettre en œuvre concrètement vos algorithmes que ce soit pour l’optimisation de vos procédés, de la maintenance prédictive…

Une architecture technique performante et fiable

Performance : nous combinons des technologies à la pointe en termes de stockage et de traitement des données pour vous offrir une expérience utilisateur fluide.

Fiabilité des flux de données : en association avec notre agent de collecte OIBus, le Process Data Lake permet de mettre en place des remontées de données multi-sources en continu et robustes.

Sécurité, durabilité et intégrité des données : nous nous appuyons sur des infrastructures cloud éprouvées permettant d’offrir un niveau très élevé de sécurité. Pour plus de détails, nous disposons d’un Plan d’Assurance Sécurité reprenant les mesures mises en place.

Vous voulez en savoir plus

Contactez-nous pour que nous échangions sur vos enjeux