Thomas Franquelin, Electra : « un système d'information qui s'étend du cloud au Edge »
Le CTO détaille comment l'entreprise de recharge de véhicules électriques a fait évoluer son SI pour mieux contrôler les opérations en stations. Et livre ses réflexions sur l'impact de l'IA sur les processus de développement logiciel.
PublicitéDirecteur technique (CTO) d'Electra depuis février 2024, et également directeur produit (Chief product officer) du spécialiste de la recharge des véhicules électriques depuis septembre dernier, Thomas Franquelin revient sur les adaptations IT qui ont accompagné la croissance de cette entreprise née en 2021.
Désormais à la tête d'un réseau de 700 stations (contre moins de 50 il y a trois ans), Electra est présent dans 10 pays européens (la France et ses pays frontaliers, auxquels s'ajoutent les Pays-Bas et la République tchèque). La société a pour ambition de doubler le nombre de ses points de charge d'ici à 2027. Chaque semaine, entre 3 et 5 nouvelles stations sont ainsi créées en Europe, assure Electra, qui emploie actuellement plus de 250 personnes (dont une soixantaine travaillant sur le logiciel).
Electra s'est construit en bâtissant son propre SI de gestion des bornes et de la relation client sur le cloud. Avec la taille que vous avez atteinte, avez-vous fait évoluer ces principes fondateurs ?
Thomas Franquelin : Avec le passage à l'échelle que nous avons connu, les volumes ont explosé. Les contraintes de performances et de fiabilité sont devenues plus fortes, chaque petit problème en devenant un gros puisqu'il se répercute sur une base de clients beaucoup plus importante. Le système d'information a donc besoin d'être beaucoup plus fiable qu'auparavant. Nous avons aussi continué le travail d'intégration verticale des SI, notamment en étendant le système d'information à la station elle-même. Nos équipes ont une influence majeure sur la conception des stations. Par exemple, l'Electra line, un bandeau LED d'affichage propre à notre marque, est conçu et développé 100% en interne. Mais on parle également des fonctions de distribution de puissance entre bornes, avec désormais une forme d'intelligence déportée dans chaque station.
Comment avez-vous fait évoluer votre socle applicatif de départ pour vous adapter à ces nouveaux enjeux ?
Ce socle est désormais plus modulaire. D'un point de vue systèmes d'information, nous avons séparé nos deux métiers : celui d'opérateur d'infrastructures, d'un côté, et celui de fournisseur de mobilité, au contact du client final, de l'autre. Un chantier important qui a été mené sans interruption des opérations.
L'autre défi technique consiste à intégrer l'IA dans nos processus, tant dans nos pratiques de développement que dans nos opérations. Au sein de celles-ci, nous avons des cas d'usage pertinents pour la GenAI dans le support client, mais aussi dans les opérations de maintenance. Tout ce qui était auparavant difficile à automatiser, car ne reposant pas sur des données claires et structurées, devient accessible. Plus globalement, nous sommes une entreprise de 'cols blancs' : tous nos métiers sont touchés par l'IA avec des gains de productivité à orchestrer. Le phénomène touche la finance, le service juridique, le déploiement, le suivi des chantiers, la maintenance, etc.
PublicitéDans cette séparation en deux du SI, avez-vous choisi de vous reposer uniquement sur des développements internes ou avez-vous eu recours aussi à des solutions sur étagère ?
Nous avons eu ce débat, qui traverse un peu toute notre industrie d'ailleurs. Beaucoup ont choisi d'externaliser un des deux blocs, la gestion des infrastructures de recharge ou la partie dédiée au contact clients. Nous avons choisi de garder la maîtrise sur ces deux parties. Le chantier de redéveloppement, qui a duré environ 6 mois et impliqué quelques dizaines de développeurs, s'est achevé fin 2025.

Une station Electra. Depuis fin 2025, le spécialiste de la recharge déploie des composants du SI en Edge dans ses stations afin de contrôler la répartition de puissance entre les bornes. (Photo : Electra)
Durant ce chantier, avez-vous constaté des gains de productivité du fait de l'emploi de l'IA générative dans le processus de développement ?
D'abord, la question de la productivité des développeurs est un sujet très polémique, et elle n'est pas tranchée à ce jour. Par ailleurs, l'IA agentique de l'époque n'était pas celle d'aujourd'hui, même si on parle de seulement quelques mois d'écart. Enfin, nous étions au début de notre courbe d'apprentissage quant à cette nouvelle manière de faire. Quelques mois après, c'est déjà extrêmement différent : les équipes sont déjà beaucoup plus productives aujourd'hui qu'il y a quelques mois.
Quels développements avez-vous effectués pour vos déploiements en Edge ?
Auparavant, le pilotage de la gestion de puissance était centralisé, sur le cloud. Or, les bornes d'une même station ont besoin d'être coordonnées, faute de quoi elles peuvent demander davantage de puissance que ce qui est disponible pour la station dans son ensemble. D'où le besoin d'un pilotage plus fin. Par ailleurs, nous avons développé nos activités dans des pays où l'accès à la puissance électrique est beaucoup plus contraint qu'en France, ce qui nous a aussi poussé à déployer des batteries en stations. Une complexité supplémentaire, car cela demande une grande réactivité en matière de répartition de puissance.
Face à ce contexte, nous avons évolué vers un modèle reposant sur le Edge, en stations. Le cloud continue à héberger les stratégies de répartition de puissance. Celles-ci sont poussées vers les stations, tandis que leur calcul bénéficie des remontées de données provenant des stations, prises en compte aux côtés de multiples autres paramètres. Le lien entre cloud et Edge passe par un composant d'AWS, appelé IoT Core.
Sur ce créneau très spécifique du calcul des stratégies de répartition de puissance, comme sur la gestion des batteries en stations, qui supposent tous deux l'acquisition de nouvelles expertises, nous avons choisi d'internaliser les développements, pour rester indépendants et concevoir une solution couvrant tous nos besoins dans toutes les géographies où nous sommes implantés.
Votre système d'information tourne sur le cloud public. Privilégiez-vous plutôt une approche IaaS, PaaS ou FaaS ?
Nous avons effectivement démarré sur AWS dès la première transaction. Nous utilisons des services managés, sans aller jusqu'au FaaS. Pour l'instant, sur le service d'orchestration de conteneurs ECS (Elastic Container Service) d'Amazon, mais nous sommes en cours de migration vers Kubernetes, au travers du service EKS.
Quelles difficultés rencontrez-vous dans la mise en oeuvre de vos projets de GenAI ? Les gains espérés se matérialisent-ils réellement ?
Nous avons des cas d'usage où ces gains sont extrêmement tangibles. D'autres sont un peu bloqués aujourd'hui, pas à cause d'une forme de résistance au changement des équipes, mais plutôt pour des questions d'accès sécurisé à une information de qualité et en quantité suffisante. L'aspect sécurité est une problématique pour laquelle aucune solution n'a encore été réellement trouvée au sein de l'industrie.
Le choix actuel, c'est soit de tout ouvrir et de s'exposer à des exfiltrations massives de ce qui constitue de plus en plus la valeur réelle d'une entreprise - la connaissance -, soit de perdre de la croissance en étant trop strict sur la sécurité des données. Pour l'instant, nous avons pris le parti de ne pas trop limiter les usages, pour peu que nous ayons des garanties sur le fait que nos données ne soient pas utilisées pour l'entrainement des modèles. En revanche, l'agentique ouvre des voies d'accès à de l'information privilégiée à des personnes qui n'avaient pas forcément à en connaître. Nous devons donc rester très vigilants sur ce point. D'autant que des agents tournent déjà dans nos systèmes, y compris sur notre coeur de métier, par exemple pour diagnostiquer en temps réel les problèmes en stations.
En tant que CTO, quelles sont vos priorités pour cette année 2026 ?
Ma priorité n°1 est de transformer de façon pertinente notre façon de travailler avec l'IA. En particulier notre manière de développer le logiciel : jusqu'où aller sans perdre le contrôle ? Être en mesure de tracer cette ligne avec précision, c'est actuellement ce qui me maintient éveillé la nuit ! A l'heure actuelle, déjà, nous n'écrivons plus de code et le processus de revue de celui-ci a lui aussi beaucoup évolué, en particulier au sein d'une équipe pilote sur le sujet. Nous voulons éviter une forme de dystopie où un ingénieur relit des lignes de code générées par quelqu'un qui, lui, ne les a même pas lues. Nous ambitionnons de conserver le même niveau d'abstraction entre celui qui veut créer un changement et celui qui en effectue la revue.
Je n'imagine pas sortir de 2026 en étant encore hésitant sur nos manières de concevoir du logiciel, même si, à ce stade, il est difficile de dire comment les développeurs exerceront leur métier en fin d'année, les armes qu'ils utiliseront alors n'étant tout bonnement pas encore créées ! Cette année sera, plus que toute autre dans notre carrière, une année charnière dans le développement informatique. Tout le monde ressent une forme d'excitation face à ces transformations, mais aussi un peu d'inquiétude. Il faut accepter de faire le deuil d'une partie de la valorisation des compétences de production de code. Chez Electra, depuis plusieurs années déjà, nous avons eu la volonté de recruter des ingénieurs sensibles aux enjeux business et capables d'évoluer en autonomie. Nous avons donc écarté toute forme de fordisme, où un product manager transmettrait ses spécifications à un designer, qui travaillerait avec un architecte avant de confier la réalisation à un développeur. En interne, les développeurs ont une responsabilité forte sur l'ensemble du cycle. Il s'avère, par chance, que cette organisation est bien adaptée pour négocier le virage de l'IA.
Article rédigé par
Reynald Fléchaux, Rédacteur en chef CIO
Suivez l'auteur sur Twitter
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire