Interviews

Interview BPCE « Pour la GenAI, nous avons fait un choix de souveraineté pour être en capacité de maîtriser notre destin »

Interview BPCE « Pour la GenAI, nous avons fait un choix de souveraineté pour être en capacité de maîtriser notre destin »
Luc Barnaud (à D), chief AI and data officer et Laurent Fernandez (à G), directeur du centre d'expertise technologique du groupe BPCE (Photo EDelsol - conférence de presse BPCE novembre 2025)

Luc Barnaud, chief AI and data officer et Laurent Fernandez, directeur du centre d'expertise technologique du groupe BPCE décryptent les dessous technologiques, mais aussi éthiques, de souveraineté et de gouvernance de la stratégie IA du groupe.

PublicitéDepuis 2025, le groupe bancaire BPCE déploie une stratégie d'IA progressive qui s'appuie sur un nombre restreint de cas d'usage, susceptibles d'apporter de la valeur. C'est justement la création et la mesure de cette valeur qui sont au programme de 2026 pour l'entreprise, après un succès en matière d'usages l'an dernier. CIO a interviewé le tandem Luc Barnaud, chief AI and data officer et Laurent Fernandez, directeur du centre d'expertise technologique du groupe BPCE, pour parler des dessous technologiques de la stratégie, du datalake mutualisé à la formalisation de la politique open source ou à l'infrastructure broker de LLM interne. Ces options technologiques vont de pair avec des choix de souveraineté, d'éthique, de gouvernance, d'accompagnement des équipes qui prennent une importance de plus en plus grande entre autres avec les premiers pas en agentique.

CIO : Comment s'inscrit le service IA et data que vous pilotez dans l'organisation ?

Luc Barnaud
: La filière IA et data est une filière de plein exercice dans le groupe. Nous ne sommes donc pas rattachés à la direction Technologies et opérations, même si nous travaillons beaucoup avec elle, et notamment avec [le DSI] Laurent Benatar. Je suis rattaché à Yves Tyrode, directeur général Digital & payments du Groupe BPCE. Il chapeaute des sujets transverses au groupe dont le digital avec Emmanuel Puga Pereira, sur la partie digital clients, moi-même sur la partie data IA et une autre activité transverse autour de l'innovation. Il pilote aussi deux métiers au sens P&L, d'une part les paiements et d'autre part la solution de paiement et de financement Oney Bank que BPCE détient avec Elo Group [anciennement Auchan Holding, NDLR].

Où en êtes-vous de votre stratégie data et quels sont les grands enjeux en la matière pour 2026 ?

Luc Barnaud : Le groupe a lancé en 2024 son plan stratégique Vision 2030, cadencé en séquences. Nous sommes dans la première de ces séquences qui court jusqu'à 2026 incluse et s'appuie sur une stratégie IA présentée en 2025 ancrée sur deux jambes. D'abord, l'IA pour tous, avec la conviction que l'IA générative devient un standard de nos vies professionnelles, personnelles, numériques, etc., et qu'il est absolument clé pour nous de mettre ce standard à disposition d'un maximum de nos employés, mais de manière sécurisée et éthique. Cela s'incarne dans un certain nombre de produits, dont notre IA générative interne sécurisée Maïa. Nous avons d'ailleurs atteint dès novembre 2025 les objectifs fixés pour 2026 de 50% d'utilisation de Maïa. Cette première jambe de la stratégie reste d'actualité en 2026. En n'oubliant pas, bien entendu, qu'au-delà des produits comme celui-ci, il y a bien sûr un important enjeu d'accompagnement, de formation.

PublicitéLa deuxième jambe de la stratégie, c'est la transformation des processus, voire de pans entiers d'activité, pour laquelle nous avons choisi 5 sujets avec un impact fort, pour ne pas multiplier les POC. Pour commencer, l'accompagnement par la GenAI des quelque 35 000 conseillers du groupe dans tout le cycle de conseil et de vente, sur les marchés des particuliers, des professionnels, dans la préparation, la réalisation, la synthèse des entretiens par exemple. Ensuite, l'IA générative dans l'app mobile pour nos clients lancée en mars 2025. Nous avons une très forte progression depuis l'annonce du dépassement d'un million d'interactions sur cette app en novembre. Nous allons enrichir cette première version en 2026 avec des connaissances apportées à la GenAI, y compris de la connaissance spécifique à chaque client. Le 3e sujet, c'est l'IA au service de nos centres d'appel sur les métiers spécialisés, comme ceux du crédit à la consommation, de l'assurance ou du paiement. La GenAI traite en automatique certains appels simples - déjà un million sur une base de 12 mois -, mais elle accompagne aussi le téléconseiller avec le compte-rendu d'appel instantané, par exemple. 4e axe de transformation, le traitement de la fraude pour protéger la banque et les clients, passe plutôt par du machine learning pour affiner la détection d'événements. Enfin, le 5e et dernier axe, c'est l'IA pour les métiers de l'informatique.

Laurent Fernandez : Nous avons essayé des outils du marché pour le développement, comme Github Copilot, mais nos équipes sécurité nous l'ont interdit. Certains agents IA allaient consulter sur les postes de travail des informations qu'ils n'étaient pas supposés chercher. Nous avons donc développé notre propre plug-in appelé Continue sur la base d'une solution open source, et nous l'avons déployé auprès de 2000 de nos développeurs.

Avez-vous déjà des retours mesurables sur ces 5 axes de transformation ?

Luc Barnaud : 2025 a été l'année de l'adoption par les utilisateurs. Et 2026 est celle de la transformation en valeur. Nous avons toujours deux familles d'indicateurs. D'un côté, des mesures d'effets directs liés aux gains de temps, par exemple avec l'enjeu du réinvestissement dans un avantage business. De l'autre côté, des mesures de gains business spécifiques comme la baisse du niveau de fraude qui a un impact financier direct. De la même façon, l'accompagnement de la préparation d'entretien avec les clients va rendre les conseillers plus efficaces, et donc augmenter le taux de concrétisation. Ce second type d'indicateur demande cependant davantage de temps pour disposer d'un retour réel.

Par ailleurs, en plus de ces 5 axes que nous continuons de développer en 2026, nous préparons la prochaine séquence 2027-28 du plan IA qui se concentre sur l'agentique. Nous avons déjà des travaux en cours dans le groupe sur quelques cas d'usage.

Comptez-vous faire évoluer vos infrastructures data dans le cadre de cette stratégie IA, mais aussi dans le cadre de la fusion des SI des Banques Populaires - Caisses d'Épargne ?

Luc Barnaud : Effectivement, nous avons un important projet de rapprochement dans le groupe, des systèmes core banking des Banques Populaires et des Caisses d'Épargne qui restent aujourd'hui des instances et des outils séparés. Ce que nous avons construit pour notre activité retail, depuis environ 3 ans, c'est une couche data commune à l'ensemble du groupe, en l'occurrence un datalake avec Big Query sur un tenant GCP sécurisé, crypté, etc. Il nous permet, avec toutes les précautions d'usage, de croiser la data qui vient de différents univers : le monde des distributeurs - des Banques Populaires et des Caisses d'Épargne - , du monde des producteurs au sens de nos métiers assurance, distribution, etc. Nous avons donc homogénéisé la couche data pour les données structurées. En revanche, nos données les plus sensibles sont conservées dans nos propres datacenters avec des outils on premise.

Pour la GenAI, nous avons fait un choix de souveraineté pour être en capacité de maîtriser notre destin. Les équipes de Laurent [Fernandez] ont construit une infrastructure de brokers de LLM, qui dirigent nos usages de manière dynamique vers différents fournisseurs de modèles, appelés depuis des tenants sécurisés dans Azure ou dans GCP. Nous avons opté pour OpenAI, Google, Anthropic et Mistral. Mais nous pouvons aussi router les requêtes vers des modèles instanciés en local sur nos propres infrastructures on premise. Il est essentiel pour nous, en matière de souveraineté, mais aussi de coûts, de maîtriser notre gare de triage vers des partenaires que nous avons choisis.

Et cette couche d'abstraction répond également à un enjeu de mutualisation. C'est en effet un actif mutualisé dans le groupe, qui permet d'accéder à tous les produits à base de GenAI que nous utilisons, qu'il s'agisse de notre portail interne sécurisé, des produits pour nos clients, nos conseillers, nos informaticiens, etc.

Laurent Fernandez : La couche d'abstraction est effectivement intéressante à plus d'un titre. Pour le finops, comme l'évoque Luc, nous suivons quotidiennement les coûts induits par les appels à chaque LLM. Mais c'est aussi intéressant pour les développeurs qui passent facilement d'un LLM à l'autre, en changeant une simple virgule d'appel dans une API.

Quelles sont les règles d'aiguillage vers un LLM plutôt que l'autre ? Une combinaison entre le coût, la souveraineté, la sensibilité de la donnée ?

Luc Barnaud : Le premier aiguillage consiste à vérifier que l'usage du produit IA est compatible avec l'utilisation de nos infrastructures tenants sécurisées dans le cloud. Ou si ce n'est pas le cas, à diriger la requête vers nos datacenters on premise. Ensuite, effectivement, en fonction de la tâche confiée à la GenAI, nous trouvons le meilleur compromis entre performance, latence et coût. Et il n'y a pas de réponse absolue. Nous avons aussi un enjeu de frugalité. Donc, si un LLM de plus petite taille réalise la tâche de façon satisfaisante, c'est lui que nous allons choisir plutôt que le dernier modèle GPT ou Gemini, par exemple.

Vous ne priorisez pas Mistral ?

Luc Barnaud : Non pas systématiquement pour les usages via API, car pour nous, garder ce côté agnostique et agile pour choisir entre les LLM est un enjeu fort. En revanche, pour l'inférence en local, pour construire des capacités sur nos propres datacenters, l'installation d'un LLM est plus lourde. Nous avons donc choisi de commencer avec certains modèles de Mistral.

Quelles démarches de gouvernance RSE mettez-vous en place dans le cadre de cette stratégie d'IA ?

Luc Barnaud : Pour commencer, pour nous, la GenAI la plus frugale est celle que l'on n'utilise pas. Et nous mettons en place toute la pédagogie nécessaire pour rappeler que, certes c'est formidable pour certains sujets, mais qu'il serait déraisonnable d'un point de vue de l'impact climatique, de la consommation électrique, et même de la performance, d'y faire appel systématiquement. Souvent, un code informatique classique suffit.

Comment mesurez-vous l'empreinte environnementale de la GenAI, quand les offreurs ne fournissent aucun élément ?

Luc Barnaud : Effectivement, nous n'avons pas d'éléments quantitatifs sur la consommation de nos modèles sur GCP sécurisé. Nous travaillons sur la capacité à affecter aux modèles des poids en équivalent CO2. Mais c'est d'autant plus compliqué qu'on ne dispose pas des métriques pour les comparer. De plus, parle-t-on du coût incrémental d'inférence ? Doit-on réinjecter le coût d'entraînement initial ? La question est celle du calcul d'une sorte de TCO. Nous menons des études avec des partenaires indépendants des fournisseurs de LLM, pour voir si des taxonomies transverses peuvent émerger, pour passer d'une information qualitative à une information plus quantitative, et éclairer les choix de nos équipes, à Laurent et moi, mais aussi des utilisateurs qui ont le choix du modèle.

Vous évoquez aussi un enjeu de transparence sur la GenAI ?

Luc Barnaud : Oui, tout à fait. Nous avons un parti pris en matière de design spécifique pour que l'utilisateur, client ou employé, voit clairement quand un service utilise de la GenAI, et donc quand il entre en interaction directe avec une IA. C'est aussi un enjeu pour nos conseillers, afin qu'ils gardent leur discernement par rapport à la réponse qui leur est apportée. Nous travaillons dans ce cadre avec l'équipe de design système, également chez Yves Tyrode. Par ailleurs, nous sommes en dialogue permanent avec les organisations représentatives du personnel sur ces enjeux, et en particulier sur l'impact sur les compétences.

Qu'entendez-vous par dialogue avec les organisations représentatives du personnel ?

Luc Barnaud :  Un dialogue social est organisé dans lequel j'interviens régulièrement. Cela passe par des commissions à différents niveaux d'organisation du Groupe, pilotées par la filière RH. Notre président du directoire, Nicolas Namias, en pilote même certaines directement. Cela va jusqu'aux CSE avec des présentations régulières et un travail permanent parce que c'est une matière vivante. Et cela s'est matérialisé par la signature d'un accord GEPP [Gestion des emplois et des parcours professionnels, NDLR] signé en 2025. Historiquement, quand nous développions des produits à base d'IA prédictive ou de data, nous étions sur un modèle avec un business owner, un product owner au sein de mon équipe et l'expertise technologique apportée par la Direction informatique. Aujourd'hui, nous ajoutons l'expertise RH. Nous nous posons systématiquement, en amont des projets et pendant leur déroulement, pour réfléchir aux enjeux en matière d'organisation et de compétences de nos employés. Nous le faisons d'un point de vue stratégique, mais aussi très opérationnel.

Avez-vous une démarche cyber spécifique pour l'IA ?

Laurent Fernandez : Nous sommes raccordés aux 3 grands cloud providers AWS, Azure et GCP, mais nous ne faisons rien en matière de GenAI sur AWS à ce jour. Nous travaillons essentiellement avec la marketplace de Google pour Gemini, Anthropic et OpenAI au travers de Microsoft. Et aucun service d'un cloud provider n'est éligible à l'intérieur de l'entreprise s'il n'a pas été validé par nos services cyber. Cela vaut donc aussi pour les modèles d'IA.
Luc Barnaud : Et nous n'utiliserons aucun service qui ne tourne pas dans une zone RGPD.
Y a-t-il des enjeux d'indépendance, de souveraineté, spécifiques à l'IA, en particulier vis-à-vis des États-Unis ?

Laurent Fernandez : Cela rejoint entre autres notre stratégie open source. Nous avons lancé un collectif open source il y a quelques mois. Et sur le monde de l'IA, nous allons aussi essayer de faire bouger la trajectoire qui était totalement centrée sur les États-Unis.

Quid des enjeux éthiques associés à l'IA et à ses algorithmes, aux biais, aux hallucinations ?

Luc Barnaud : Il y a tout un enjeu autour de la façon de tester initialement [les algorithmes], mais aussi dans le suivi. Et nous utilisons par exemple Giskard. On veut s'assurer que la machine GenAI ne puisse pas être manipulée par du prompt injection. Ce sont des éléments qui seront d'autant plus importants avec l'agentique. « Une IA assistante qui se trompe, c'est déjà gênant. Mais avec une IA qui peut prendre des décisions, voire réaliser des actions dans les SI, nous devons renforcer notre niveau d'exigence sur l'observabilité, la traçabilité, le mandat d'autorisation de l'agent, etc. En matière d'agentique, c'est un sujet qui est insuffisamment évoqué par rapport aux nouveaux modèles, aux MCP, alors que c'est un des points majeurs pour passer à l'échelle. Nous ne monterons en puissance sur ces nouvelles approches de la GenAI que si nous sommes capables de passer à l'échelle sur les outils d'observabilité. Ce sont des sujets sur lesquels le niveau de jeu monte d'une division, mais à ce stade nous n'avons pas encore de réponse universelle et holistique.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis