Stratégie

Marie Gepel, Technip Energies : « Concevoir des produits data couvrant nos 450 projets »

Marie Gepel, Technip Energies : « Concevoir des produits data couvrant nos 450 projets »
« Nous passons d’activités traditionnelles qui s’apparentent à de la haute couture, comme le GNL (Gaz naturel liquéfié), à une approche plus modulaire, tendant vers le prêt-à-porter. » (Photo : Bruno Lévy)

Spécialiste de l'ingénierie dans le secteur de l'énergie, Technip Energies mise sur la donnée pour améliorer son efficacité opérationnelle et aller vers des produits et services plus modulaires, donc réutilisables d'un projet à l'autre. Arrivée dans la société il y a 18 mois, sa vice-présidente en charge de la transformation digitale détaille la démarche entreprise et ses premiers résultats.

PublicitéMarie Gepel a rejoint Technip Energies en février 2022, d'abord comme Chief Data Officer avant de devenir vice-présidente en charge de la transformation digitale (tout en conservant le portefeuille data). L'entreprise d'ingénierie, qui a lancé un portefeuille de solutions dédiées à la transition énergétique, est née de la scission en 2021 du groupe TechnipFMC, crée lui-même par une fusion éphémère entre le Français Technip et l'Américain FMC environ 4 ans plus tôt. De nouveau indépendante, Technip Energies emploie quelque 15 000 personnes dans 35 pays et réalise un chiffre d'affaires autour de 6 Md€. Très présente dans les infrastructures de gaz naturel liquéfié - la société contrôle plus d'un tiers de la capacité en cours de construction dans le monde -, la société a entamé sa diversification vers des activités axées vers la transition énergétique : l'hydrogène vert (produit par électrolyse de l'eau, à partir d'une source d'énergie bas carbone), la capture du carbone et les carburants durables pour l'aviation. Deux volets de l'activité de Technip Energies, où la donnée et le numérique sont appelés à jouer de plus en plus un rôle clef, comme l'explique Marie Gepel.

Quel rôle joue aujourd'hui le numérique dans vos activités, que l'on parle des activités historiques ou des activités plus nouvelles, comme la capture de carbone ?

Marie Gepel : Nous sommes en train de le mettre au coeur de la stratégie, parce que celle-ci s'oriente de plus en plus vers des activités orientées technologies, produits et solutions. Sur ce terrain, le numérique constitue un avantage concurrentiel, permettant de faire plus de choses en moins de temps. Sur les activités traditionnelles (terminaux gaziers en particulier, NDLR), nous menons un travail de structuration et de standardisation des données, cas d'usage par cas d'usage, afin d'harmoniser le langage au sein de l'entreprise et rendre nos données accessibles et interopérables. S'y ajoute une revue de nos processus pour identifier les parties qui sont automatisables et, ainsi, améliorer notre efficacité opérationnelle.

Sur les nouvelles activités, l'enjeu consiste à bien faire les choses d'emblée. Car, justement, nous avons la chance de ne pas avoir de legacy. Nous travaillons sur une plateforme commune à ces activités que sont l'hydrogène vert, la capture du carbone et les carburants durables pour l'aviation. Nous cherchons aussi à partir sur les bons standards : nous étudions notamment les standards OSDU (un forum d'entreprises de l'énergie travaillant à des standards de données ouverts) ou Open Footprint (sur les émissions de carbone), vers lequel le secteur est en train de converger. Ces standards de données ou de modèles de données ont pour objectif de faciliter les travaux en écosystème.

PublicitéQuel est le bilan de vos efforts sur les activités historiques de l'entreprise ?

Nous cherchons à partir de nos processus métier et à identifier ceux dont la digitalisation apporterait le plus de valeur. Plusieurs initiatives sont en cours. Citons e-project sur la digitalisation des processus d'ingénierie ou Easy Plant pour les processus de construction. S'y ajoutent des initiatives plus émergentes sur des sujets d'estimation et de contrôle des coûts. Ces projets sont lancés en mode agile, pour réaliser des itérations sur la base des premiers résultats obtenus.

Avec cette approche, sur le projet NFE (North Field East, soit l'extension d'un champ gazier au Qatar), nous avons par exemple cherché à optimiser la trajectoire et le chargement des navires acheminant le matériel depuis de multiples endroits dans le monde, dans un contexte de forte volatilité des coûts du transport. Le Data Office a commencé par lister les contraintes avec lesquelles jonglent les logisticiens - un travail de 3 mois à lui seul ! - avant de travailler sur un algorithme de recherche opérationnelle sous contraintes. Notre Proof-of-Concept montre que les trajectoires peuvent être nettement améliorées. Et nous avons développé un outil permettant de simuler différents scénarii et de modifier en temps réel les trajectoires. Sur ce projet, nous venons de lancer la phase de MVP (Minimum Viable Product, qu'on pourrait aussi qualifier de V1), avec l'ambition d'une mise en production prochainement.

Par ailleurs, Technip Energies vient de remporter un autre grand projet, NFS (North Field South, une autre extension du même champ), sur lequel nous comptons réexploiter les mêmes outils. Car nous travaillons sur une approche Data Product, permettant de mutualiser une solution sur de multiples projets. Dans le cas présent, la solution pourra d'ailleurs s'appliquer à tous les projets de construction, pas uniquement aux terminaux gaziers.


« Pour notre filiale construisant des bras de chargement pour les navires, nous utilisons des drones pour aller inspecter ces équipements, y détecter des points de rouille grâce à la vision par ordinateur, les qualifier et recommander les actions correctrices. » (Photo : Bruno Lévy)

Concernant les nouvelles activités, quelle est l'implication du département data et transformation digitale que vous dirigez ? Etes-vous embarqués au coeur du produit ou vous positionnez-vous plutôt en support ?

Même si nous en sommes encore au début de cette histoire, notre vision consiste à exploiter le numérique pour contribuer à la 'productisation' de nos solutions. Nous passons d'activités traditionnelles qui s'apparentent à de la haute couture, comme le GNL (Gaz naturel liquéfié), avec une capacité à designer des projets extrêmement complexes et à les livrer clefs en mains, à une approche plus modulaire, tendant vers le prêt-à-porter. C'est par exemple le cas pour Canopy (l'offre de capture du carbone). Nous voulons utiliser la technologie pour automatiser les processus et aller vers de la prédictibilité, tout en proposant en natif des services numériques comme le Digital Twin (Technip Energies est sur ce terrain déjà éditeur d'un logiciel dédié, DPPI) ou de la maintenance prédictive, opérée par le client ou directement par nos équipes. C'est un catalogue que nous viendrons enrichir petit à petit, sur la base des solutions numérique et data que nous mettons au point.

Ce sont des technologies que nous déployons déjà en interne. Pour notre filiale construisant des bras de chargement pour les navires, nous utilisons ainsi des drones pour aller inspecter ces équipements qui peuvent être très hauts, y détecter des points de rouille grâce à la vision par ordinateur, les qualifier et recommander les actions correctrices. Dans le même esprit, avec notre activité de robotique à Marseille, nous avons déployé un système similaire de pilotage d'activités de maintenance sur la base d'analyse d'images.


« Former des experts métiers à la Data Science est un levier extrêmement puissant, car ces compétences connaissent déjà nos activités et notre organisation et se muent en agents du changement en interne. » (Photo : Bruno Lévy)

Comment avez-vous structuré l'activité data dans cette société de projets qu'était avant tout Technip Energies ?

Avant même mon arrivée dans le groupe, la stratégie autour de la data avait déjà été affirmée, avec le support du comité exécutif de l'entreprise. Ce qui a débouché sur le lancement d'un plan d'accélération data, basé sur quatre leviers que nous actionnons en parallèle. Le premier de ces leviers passe par la formation et la sensibilisation des collaborateurs. Nous avons lancé un programme de formation à la Data Science, en partenariat avec la société Datascientest, une formation qui est lourde, puisqu'elle requiert 10 heures par semaine sur 9 mois en plus du travail au quotidien. La surprise ? La première année, nous avons enregistré 300 candidatures de collaborateurs issus des métiers pour 20 places. C'est un levier extrêmement puissant, car ces compétences connaissent déjà nos métiers et notre organisation et se muent en agents du changement en interne. Nous avons donc renouvelé l'expérience en 2023, et enregistré encore environ 300 candidatures pour 40 places cette fois. Par ailleurs, toujours sur cet aspect relatif à la formation, nous avons travaillé sur un manifeste de la donnée, traduisant les valeurs de l'entreprise dans la data, et sur un serious game, qu'on va commencer à déployer pour sensibiliser les collaborateurs aux enjeux de la donnée, mais aussi aux règles de cybersécurité ou de gouvernance. Nous considérons que le sujet de la data est le sujet de tous dans l'entreprise.

Le second levier tourne autour de la gouvernance des données. Nous avons identifié une quinzaine de domaines data, chacun étant associé à un data owner d'assez haut niveau dans la structure de l'entreprise. Avec chacun, nous avons mené un travail de définition des principaux objets métiers et de recensement des données, l'ensemble étant agrégé dans notre catalogue, basé sur la technologie DataGalaxy. Cet outil est ouvert à tous pour que chacun ait accès aux définitions des objets métiers et à une localisation des données. Notre ambition, c'est de rendre les métiers autonomes sur ces sujets, le Data Office - une dizaine de personnes - ayant vocation à les accompagner et à définir le mode d'emploi, les garde-fous, les méthodologies et les outils.

A cette dimension, s'ajoute l'aspect technologique. Nous avons mis en place une plateforme de la donnée, basée sur le cloud Azure. Dans ce datalake, nous ingérons les données petit à petit, cas d'usage par cas d'usage. Nous cherchons, en effet, à nous orienter plutôt vers une approche distribuée, consistant non pas à tout consolider dans le datalake mais à donner la possibilité d'appeler par API des données dans les systèmes sources. Cette Data Platform, baptisée ez:data, sert de socle pour offrir toute une série de services complémentaires : le catalogue, l'outil de Data Science (Dataiku), la visualisation (dans PowerBI), l'indexation de documents (avec Sinequa), le chat (avec une instance ChatGPT)... La quasi-totalité de ces outils sont accessibles à la totalité des salariés, qui peuvent se familiariser à ces outils via un catalogue de formations.

Enfin, le quatrième levier, c'est la création de valeur. Il s'agit d'identifier et prioriser les initiatives via une méthodologie d'estimation du ROI développée en partenariat avec la finance. Cette estimation est suivie dans le temps, au travers des différents cycles que connaît un projet - de l'idée de départ à la mise en production -, et passe par des étapes de validation au sein d'un comité d'investissement.

On parle ici d'efficacité opérationnelle. Quels sont les principaux sujets que vous avez identifiés sur ce terrain ?

Citons d'abord les réponses aux appels d'offre, où nous voulons explorer l'IA générative. Auparavant, nous étions limités techniquement, notamment parce que nous travaillons beaucoup sur du sur-mesure. Nous étudions aussi l'optimisation des estimations des quantités de matériaux nécessaires à un projet en amont, via du Machine Learning, à partir des données collectées sur les projets passés. Sur ce terrain, nous complétons nos bases de connaissances via Sinequa, qui nous permet d'extraire des données dans des documents, y compris scannés. Enfin, citons un travail avec les achats sur l'amélioration du benchmarking des coûts, en se basant sur une vision à 360° d'un fournisseur, via des données passées de prix, enrichies de données Open Source sur les tendances des marchés. En nous basant sur des algorithmes de Machine Learning, nous pensons qu'il est possible de faciliter les négociations de nos acheteurs avec les fournisseurs.


« Construire et automatiser les reportings ESG d'une part, mesurer et corriger la qualité de données d'autre part constituent un chantier titanesque. Mais, in fine, j'adore ces sujets de conformité, car ils permettent d'aligner tout le monde sur un objectif. » (Photo : Bruno Lévy)

Quel est le rôle du Data Office dans le développement des outils de suivi de l'impact environnemental de Technip Energies ?

C'est effectivement un sujet profondément lié à la donnée. Par exemple, dans l'optimisation des trajectoires que j'ai décrite pour le projet NFE, l'objectif de la solution n'était pas seulement de réduire les coûts, mais aussi de diminuer nos émissions de carbone sur le Scope 2. Si nous parvenons à étendre cette solution à nos 450 projets, l'impact sera énorme.

Pour traiter ce sujet, nous avons créé un Data Domain dédié à la sustainability, qui n'est pas un producteur de données en tant tel, mais plutôt consommateur de données produites en de multiples endroits de l'entreprise. Cette structure s'explique par les exigences croissantes en matière de reporting environnemental. Le directive européenne CSRD, qui entre en application en 2024, nous oblige par exemple à avoir la même qualité de données pour le reporting extra-financier que pour le reporting financier. Or, le nombre d'indicateurs à calculer est énorme, de l'ordre de 70 ! Et chacun de ces indicateurs fait appel à des sources de données différentes et silotées. Chez Technip Energies, cela concerne les RH, la qualité, la construction, l'ingénierie, la finance, les achats ou encore l'immobilier !

Construire et automatiser ces reportings d'une part, mesurer et corriger la qualité de données d'autre part constituent un chantier titanesque. Mais, in fine, j'adore ces sujets de conformité, car ils permettent d'aligner tout le monde sur un objectif. Ils constituent une opportunité de structurer et mettre en qualité nos données, de les répertorier dans notre catalogue accessible à tous, afin d'activer de nouveaux cas d'usage. Par ailleurs, ces données vont devoir être échangées avec nos clients et fournisseurs, ce qui va nous pousser à converger vers des standards communs et à mettre en oeuvre des plateformes d'échanges sécurisés. Je crois dans la valeur de ces écosystèmes.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Faites-vous appel à l’IA pour automatiser le pilotage et l’exploitation de votre réseau ?