Stratégie

Retour sur la conférence CIO Data Fondations

Retour sur la conférence CIO Data Fondations
La conférence CIO « Data Fondations : les infrastructures du patrimoine de données » a permis d’écouter les bonnes pratiques et recommandations des différents intervenants.

Retour sur la conférence CIO « Data Fondations : les infrastructures du patrimoine de données » qui s'est tenue le 18 octobre 2022, sur le toit de la Grande Arche de La Défense.

PublicitéLe 18 octobre 2022, CIO a organisé une matinée sur le thème des socles et infrastructures data sur le toit de La Grande Arche de La Défense. Cette conférence, intitulée « Data Fondations : les infrastructures du patrimoine de données » a été réalisée en partenariat avec Pure Storage, Hitachi Solutions, Jaguar Network, Boomi, Commvault, Nutanix et Denodo.

Les grands témoins de cette matinée ont été Victor Azria, global data director chez JCDecaux et Romain Nio, head of data center of excellence chez Pernod Ricard. Les autres témoins étaient Florian Caringi, manager big data & data architecture & leader open source chez Groupe BPCE, Florent Maillard, data architect chez Poclain Hydraulics, Charles-Antoine Robelin, directeur data engineering de Decathlon Technology et Véronique Puche, DSI de la CNAV. Enfin, en partenariat avec MyFrenchStartUp, Antoine Couret, CEO et président d'Aleia et président du French Hub IA a présenté son entreprise, qui fournit une plateforme souveraine et industrialisée pour l'hébergement des projets d'IA.

Numérique éco-responsable 

La matinée s'est ouverte sur une intervention de Gabriel Ferreira, directeur technique chez Pure Storage, qui a choisi d'aborder les enjeux data sous l'angle du numérique éco-responsable. Pour concilier l'explosion des données et les nouveaux usages avec la nécessaire réduction de l'empreinte environnementale du numérique, il a rappelé qu'il était essentiel de consommer au plus juste et de ne pas surdimensionner les infrastructures. Le modèle de paiement à l'usage adopté par Pure Storage vise précisément à répondre à ce changement de paradigme.

Un duo de grands témoins


Victor Azria (à droite) et Romain Nio (à gauche) ont réagi à l'étude CIO.

Après une présentation de l'étude CIO « Constituer des infrastructures data performantes et polyvalentes », les deux grands témoins ont ensuite rebondi sur les chiffres évoqués. Romain Nio s'est notamment étonné du faible niveau d'usage des API, des technologies pourtant assez standard, tandis que Victor Azria, confirmant l'importance pour les entreprises de disposer d'ingénieurs data, a pointé l'importance de communiquer davantage sur ce métier, afin d'attirer une plus grande diversité de profils.

Des données actionnables par les métiers

Rob Worsley, Head of data & analytics chez Hitachi Solutions, a ensuite expliqué comment fournir des données actionnables par les métiers contribuait à une meilleure expérience client, à travers l'exemple d'un client ayant mis en oeuvre une customer data platform, afin de collecter les données clients dans différentes sources, de les regrouper dans un cadre sécurisé et gouverné et d'alimenter les applications métiers en données prêtes à l'emploi.

PublicitéLe big data chez BPCE, un socle solide qui évolue avec les cas d'usages


Florian Caringi, manager big data & data architecture & leader open source chez Groupe BPCE, a décrit l'évolution de l'une des grandes plates-formes big data du groupe BPCE.

Pour le premier témoignage de la matinée, Florian Caringi, manager big data & data architecture & leader open source au sein du Groupe BPCE, est venu retracer l'historique de l'une des plateformes big data du groupe, basée sur un socle Hadoop. Née à l'origine pour stocker et traiter de grosses volumétries de données sur les risques, celle-ci a évolué au fil des années pour intégrer d'autres données, différents outils complémentaires (l'ETL Informatica, Indexima, le catalogue de données Zeenea), et répondre à de nouveaux cas d'usages. Au départ purement on-premise, la plateforme s'est aussi ouverte progressivement au cloud. Florian Caringi a également évoqué la communauté data qui s'est créée autour de la plateforme et rassemble différentes expertises complémentaires, telles les infrastructures, la sécurité ou les ingénieurs data. « Les communautés data sont des assets très forts. Faire parler les différents métiers les amène à partager leurs problèmes et à réfléchir ensemble, en évitant de réinventer la roue à chaque fois ». A la place, « on commencer à faire ce qu'on appelle de l'inner-source, à savoir partager du code en interne », a souligné Florent Caringi.

Déployer rapidement un PRA pour protéger les données

Tommy Boivin, chef de produit cloud chez Jaguar Network, lui a succédé pour parler de la protection des données à travers la mise en oeuvre d'un plan de reprise d'activité, dans une configuration avec un cloud privé et un cloud externe. La solution VMWare Cloud Director Availability, incluse dans le portail Cloud XPR de l'opérateur, simplifie les différentes étapes de déploiement d'un PRA, comme l'a illustré Tommy Boivin à travers une démonstration.

Des API pour décloisonner l'information chez Poclain Hydraulics

Pour le témoignage suivant, Florent Maillard, data architect chez Poclain Hydraulics, a expliqué comment ce groupe industriel, qui conçoit notamment des moteurs et systèmes de transmission hydrauliques, s'appuie sur les API pour décloisonner son système d'information. Pour Poclain Hydraulics, l'enjeu était de gagner en agilité, notamment en facilitant la circulation de données provenant de nombreuses sources différentes (IoT, systèmes ERP et CRM, SGBD variés...). Présent en visioconférence, en raison de problèmes de transports le jour de l'événement, Florent Maillard a présenté les grands principes de l'architecture mise en oeuvre, avec différents types de micro-services et d'APIs gérées et orchestrées avec la plateforme Mulesoft. L'entreprise envisage désormais d'aller plus loin, en utilisant ces API et le langage GraphQL pour bâtir des endpoints sur mesure pour ses clients et fournisseurs, exposant à chacun uniquement les données pertinentes et adaptées à ses besoins.

Fédérer les données grâce à une plateforme low code

Pierre Oudot, country manager chez Boomi, a pris sa suite pour présenter l'approche de fédération de données proposée par l'éditeur. « Nous avons une proposition de valeur simple, accélérer les sujets d'intégration pour accélérer les résultats métiers ». Pour cela, la plateforme permet d'interfacer différents systèmes avec une approche low code et unifiée. Après avoir détaillé les différentes briques de la plateforme, Pierre Oudot a présenté un cas client au sein du Groupement Les Mousquetaires.

Alliance technologique de Pernod Ricard et JCDecaux autour d'un data portal


Victor Azria, global data director chez JCDecaux et Romain Nio, head of data center of excellence chez Pernod Ricard, sont revenus sur la collaboration technologique des deux entreprises autour de leur data portal.

Après la pause, Victor Azria, global data director chez JCDecaux et Romain Nio, head of data center of excellence chez Pernod Ricard, ont présenté ensemble leur alliance technologique autour d'un data portal sur le cloud. Ce projet, né chez Pernod Ricard, avait pour objectif de centraliser les données dans un portail unique, afin que chacun puisse connaître les données disponibles et y accéder facilement si besoin, dans un groupe caractérisé par une forte présence internationale. « En présentant ce portail à d'autres entreprises, nous nous sommes rendu compte qu'il n'y avait pas beaucoup de solutions existantes sur le marché et que d'autres entreprises étaient potentiellement intéressées par une telle solution », a confié Romain Nio. Un point confirmé par Victor Azria, qui après avoir retracé la montée en maturité progressive des métiers de JCDecaux sur la data, a confié « nous étions arrivés à un point où nous avions besoin de donner accès à la donnée brute, pour que les métiers puissent travailler eux-mêmes avec leurs propres outils. » Plutôt que de vendre la technologie, les deux entreprises ont préféré se tourner vers la collaboration et le partage de code entre acteurs non concurrents, mais avec des stratégies alignées. Précisant que c'était bien le code, et non les données qui étaient partagées, Romain Nio a expliqué que ce choix permettait d'accélérer le développement du data portal et d'en réduire le coût, à travers une mise en commun des ressources. Pour Victor Azria, « l'objectif de cette alliance est que tout ce qui est développé aujourd'hui puisse servir à l'un ou l'autre, voire à terme, aux autres entreprises partenaires ».

Veiller à la résilience des données

Xavier Bourdelois, ingénieur chez Commvault France, a pris la suite pour aborder le sujet de la résilience des données, dans un contexte où les données des organisations sont exposées à de nombreux risques, allant du ransomware aux incidents physiques ou logiciels. Proposant une stratégie en 5 étapes (identifier les données, les protéger, les surveiller, mais aussi tester et automatiser), Xavier Bourdelois a ensuite détaillé chacun de ces points. « Il est important d'avoir des technologies capables d'adresser les deux mondes, on-premise et cloud », a-t-il notamment souligné.

Bâtir rapidement des cas d'usage data, objectif de la data platform de Decathlon Technology


Charles-Antoine Robelin, directeur data engineering chez Decathlon Technology, a partagé la façon dont l'enseigne sportive construit et fait évoluer son socle data, au service de cas d'usages très concrets et de la transformation du groupe.

L'invité suivant était Charles-Antoine Robelin, directeur data engineering chez Decathlon Technology. Comme certains des témoins précédents, Decathlon Technology a mis en place une plateforme data qui tient une place centrale dans sa transformation numérique. « L'enjeu pour l'entreprise était de fournir un environnement qui permet l'innovation, d'être flexible et agile tout en maintenant la robustesse au niveau de la production, l'opérabilité, la qualité, la sécurité et la conformité », a ainsi décrit Charles-Antoine Robelin. Il a ensuite présenté l'entité data de Decathlon Technology et ses grands métiers, l'occasion de revenir sur le rôle des ingénieurs data, moins connus que les data scientists. Charles-Antoine Robelin a poursuivi en expliquant la mission de ses équipes : créer la data plateforme et y inclure des données et des agrégats de base, de telle manière que les clients internes puissent ensuite créer rapidement des use cases basés sur la data. « Nous avons un data warehouse unique et centralisé, découplé au maximum des applications de l'entreprise. Nous récupérons les données des applications via une interface, puis nous mettons en place des briques technologiques qui permettent le traitement de la donnée de bout en bout : capture, stockage, processing, requêtage et visualisation ». Pour finir, le directeur data engineering a décrit quelques-uns des cas d'usage de la plateforme, comme la prédiction des ventes dans l'ensemble des magasins du groupe.

Surmonter les silos de données

Les participants ont ensuite pu écouter Olivier Parcollet, solution architect chez Nutanix, également présent à distance en raison des circonstances. Celui-ci s'est penché sur différents freins sur la route des entreprises voulant devenir data-driven, notamment la problématique des silos de données. Cet enjeu, déjà présent on-premise, est accentué par la cohabitation avec le cloud. Pour exploiter pleinement les données, il faut éviter cette dispersion, « proposer un portail aux métiers, simple d'accès et d'utilisation », a insisté Olivier Parcollet, avant de détailler les solutions proposées par Nutanix.

Les chantiers data structurants de la CNAV

Une interview en vidéo de Véronique Puche, DSI de la CNAV, a permis de revenir sur les sujets data de l'administration qui gère les régimes de retraite de la majorité des Français, « des enjeux structurants » selon la DSI. La CNAV a mené au cours des dernières années plusieurs projets majeurs de consolidation des données, dont la mise en oeuvre du RGCU (référentiel de gestion des carrières uniques) ou le DRM (dispositif de ressources mensuelles). Ces projets de big data ont amené de multiples questions : quels socles techniques peuvent supporter de telles quantités de données ? Quelle gouvernance mettre en place ? Quelle organisation ? Ainsi que des questions RH, avec l'apparition de nouveaux métiers, et aussi des enjeux de sécurité. Véronique Puche a également évoqué les opportunités et avancées rendues possibles par ces projets. « Disposer d'une telle richesse sur les carrières, les revenus ouvrent des perspectives prometteuses », estime la DSI, évoquant par exemple la capacité à supporter des évolutions structurelles de la législation, à simplifier les échanges entre les différents régimes ou à optimiser les processus métiers, pour réduire les cycles de traitement des carrières lors du passage en retraite ou dans le cas du DRM, faciliter l'attribution et le calcul des prestations sous condition de ressources et le « dites-le nous une fois ».

Virtualiser pour accélérer l'accès aux données

Géraud Rosenkranz, sales director chez Denodo, a pris le relais en détaillant comment la data virtualisation permet de répondre aux nouveaux usages autour des données, qui demandent de plus en plus un accès en self-service et en temps réel aux données, dans une optique également plus frugale. « Dans tous les cas, le paysage data est éclaté aujourd'hui, avec de multiples sources, des enjeux de sécurité », a constaté Géraud Rosenkranz. « La data virtualisation permet de découpler le compute, le storage, en réduisant de manière assez importante les temps de mise à disposition de la donnée. »

Une plateforme pour industrialiser les projets d'IA


Antoine Couret, CEO et président d'Aleia a présenté cette plateforme souveraine pour l'hébergement de projets d'intelligence artificielle.

La start-up invitée, en partenariat avec MyFrenchStartup, était Aleia, représentée par son CEO et président Antoine Couret. Celui-ci, qui est également président du French Hub IA, a d'abord présenté la plateforme d'IA-as-a-Service conçue par Aleia, pensée pour fournir un environnement de collaboration, de partage et de fédération des données pour les projets d'intelligence artificielle. Parmi ses spécificités, la solution intègre un espace de déploiement et de mise en production complètement managé, qui peut être hébergé dans des clouds de confiance. Elle offre également des capacités d'apprentissage fédéré pour accélérer les projets de machine learning. « Nous savons apporter à la fois cette approche IA et cette approche IT, dans un environnement économique maitrisé et répondant aux exigences de sécurité », a mis en avant Antoine Couret.

La matinée s'est achevée par un cocktail, l'occasion pour les participants de partager un moment de convivialité, tout en profitant d'une vue exceptionnelle sur La Défense et Paris depuis le toit de La Grande Arche.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Votre entreprise utilise-t-elle une plate-forme intégrée de gestion de la sécurité, protégeant de bout en bout les identités, les données, les infrastructures, les applications et les devices ?