L'instabilité de l'IA oblige les DSI à repenser leur infrastructure tous les 90 jours
Les DSI peinent à choisir leur outillage pour l'IA agentique. Une étude montre que seules 1% des entreprises ont actuellement au moins un agent en production. Un taux appelé à croître très lentement, selon certains experts.
PublicitéL'évolution rapide des technologies d'IA représente un problème croissant pour les entreprises, qui se retrouvent à reconstruire sans cesse leurs infrastructures d'IA pour s'adapter à l'évolution des capacités et des stratégies en la matière. Selon une étude du fournisseur de solutions de qualité des données Cleanlab, 70% des entreprises réglementées et 41% des organisations non réglementées remplacent au moins une partie de leurs stack technologique pour l'IA tous les trois mois, tandis qu'un quart des entreprises, réglementées ou non, effectuent au moins une mise à jour tous les six mois.
Cette étude, menée auprès de plus de 1 800 responsables d'ingénierie logicielle, souligne les difficultés que rencontrent encore les organisations pour suivre le rythme des évolutions du paysage de l'IA et déployer des agents d'IA en production, explique Curtis Northcutt, Pdg de Cleanlab.
Agents... virtuels
Seuls 5 % des répondants disent disposer d'agents d'IA en production ou prévoient de les déployer prochainement. Et, en se basant sur les réponses des ingénieurs interrogés concernant les défis techniques liés à ces projets, Cleanlab estime à seulement 1 % la part des entreprises ayant déployé des agents d'IA au-delà de la phase pilote. « Les agents en entreprise sont encore loin d'être une réalité, et ils sont loin d'atteindre les performances annoncées, tranche Curtis Northcutt. Des centaines de startups ont tenté de vendre des composants d'agents d'IA aux entreprises, sans succès. »
Même sans déploiement en production, le fait que tant d'organisations reconstruisent des parties de leur infrastructure technologique encadrant leurs projets d'IA tous les quelques mois témoigne non seulement de la rapidité des changements dans le domaine, mais aussi d'un manque de confiance dans les résultats obtenus, affirme Curtis Northcutt. Les modifications apportées à l'infrastructure technologique peuvent aller d'une simple mise à jour de la version d'un modèle d'IA sous-jacent, à la migration d'un modèle propriétaire vers un modèle Open Source, en passant par le changement de la base de données où sont stockées les données auxquelles accèdent les agents, précise-t-il. Et, dans de nombreux cas, le remplacement d'un seul composant entraîne une cascade de modifications, ajoute le Pdg.
Instabilité, surtout dans les entreprises réglementées
« Lorsqu'on adopte un modèle Open Source et qu'on l'exécute sur ses propres serveurs, toute l'infrastructure change et il faut gérer de nombreux problèmes inédits. On peut alors se dire : "C'était pire que prévu", explique Curtis Northcutt. On revient donc à un autre modèle, puis on passe au cloud, et l'API cloud s'avère totalement différente de l'API d'OpenAI. »
PublicitéCozmo AI, fournisseur de solutions d'IA vocale, a également constaté de fréquents changements dans les technologies utilisées sur les déploiements d'agents, indique Nuha Hashem, cofondatrice et directrice technique. L'étude de Cleanlab confirme cette instabilité notamment dans les environnements réglementés, précise-t-elle. « De nombreuses équipes dans les entreprises remplacent des éléments de leur infrastructure chaque trimestre, car la configuration initiale est souvent un assemblage hétéroclite qui se comporte différemment en test et en production, ajoute-t-elle. Un simple changement dans une bibliothèque ou une règle de routage peut modifier la façon dont l'agent traite une tâche, ce qui oblige à une nouvelle reconstruction. »
Si la rapidité de l'évolution de l'IA peut entraîner des refontes fréquentes, une partie du problème réside dans la manière dont les modèles d'IA sont ajustés, souligne Nuha Hashem. « Le problème de fond est que de nombreux systèmes d'agents s'appuient sur des comportements intégrés au modèle plutôt que sur des règles claires, précise-t-elle. Lorsque le modèle est mis à jour, le comportement dérive. En revanche, si les équipes définissent des étapes et des vérifications claires pour l'agent, l'architecture peut évoluer sans dysfonctionnements constants. »
Une sécurité qui ne donne pas confiance
Un autre problème semble résider dans le faible niveau de satisfaction vis-à-vis des composants existants des solutions d'IA. L'enquête Cleanlab portait notamment sur l'expérience utilisateur avec plusieurs composantes de l'infrastructure agentique, notamment l'orchestration des agents ou l'observabilité. Seul un tiers des personnes interrogées se disent satisfaites de l'un des cinq composants listés, tandis qu'environ 40% indiquent rechercher des alternatives pour chacun d'eux. Seulement 28% des répondants sont ainsi satisfaits de la sécurité et des garde-fous mis en place pour leurs agents, ce qui témoigne d'un manque de confiance dans leurs résultats.
Bien que l'enquête Cleanlab puisse dresser un tableau assez sombre de l'état actuel de l'IA agentique, plusieurs experts estiment ses conclusions assez justes. Jeff Fettes, Pdg de Laivly, fournisseur de solutions d'expérience client basées sur l'IA, n'est pas surpris que de nombreuses entreprises aient à reconstruire une partie de leurs infrastructure agentique toutes les quelques semaines. Car il observe un phénomène similaire. « Ce qui distingue les organisations les plus performantes en matière d'IA, c'est leur capacité d'itération, affirme-t-il. Ce que l'on constate, c'est que les entreprises n'ont pas abandonné leurs anciennes méthodes de travail et peinent à suivre le rythme effréné de l'évolution de l'IA. »
Remise en cause de la méthode projet
Pour la plupart des grandes plateformes IT d'entreprise, les DSI suivent un long processus d'évaluation et de déploiement. Une mécanique bien huilée que vient bousculer la rapidité des progrès de l'IA. « Auparavant, les services informatiques planifiaient leurs projets en profondeur, puis transformaient leur infrastructure technologique, et cela fonctionnait bien pendant un certain temps, explique Jeff Fettes. Aujourd'hui, ils constatent qu'ils arrivent à mi-chemin - ou presque - du processus de planification, et que la technologie a déjà tellement évolué qu'ils doivent tout recommencer. » Et il observe que nombre de ses clients abandonnent leurs projets pilotes face à ces bouleversements constants. « On arrive à une situation où beaucoup d'entreprises doivent abandonner leurs cas d'usage existants », dit-il.
Outre l'évolution rapide des technologies, le marché de l'IA offre tellement de choix qu'il est difficile pour les DSI de l'appréhender et d'en comprendre les changements, ajoute le Pdg de Laivly. « Des centaines de nouvelles entreprises ont investi ce secteur. Beaucoup de solutions ne fonctionnent pas. Il est parfois difficile de s'y retrouver. »
Garde-fous, tests automatisés et observabilité
Tapforce, une société de développement d'applications, constate également que les entreprises reconstruisent leurs infrastructures d'IA tous les quelques mois, sous l'effet de l'évolution constante du marché, comme le reconnaît Artur Balabanskyy, cofondateur et directeur technique. « Ce qui fonctionne bien aujourd'hui peut devenir sous-optimal demain, dit-il. Si les organisations ne mettent pas activement à jour leur infrastructure, elles risquent de prendre du retard en termes de performances, de sécurité et de fiabilité. »
Pourtant, à ses yeux, ces reconstructions constantes ne doivent pas nécessairement engendrer le chaos. Il recommande aux DSI d'adopter une approche par strates pour leur infrastructure agentique avec un contrôle de version robuste, un monitoring continu et une approche modulaire du déploiement, afin d'être en mesure de remplacer des composants, au besoin. « Des garde-fous, des tests automatisés et une solution d'observabilité sont essentiels pour garantir la fiabilité des systèmes de production, malgré l'évolution technologique sous-jacente », souligne Artur Balabanskyy.
Agents à grande échelle : pas avant des années
Curtis Northcutt, de Cleanlab, recommande aux DSI de suivre un processus rigoureux, incluant une description détaillée des prérequis et fonctionnalités attendues de l'agent, avant tout déploiement. « On entend souvent dire : "Utilisons une IA pour le support client", mais c'est une vision très superficielle des choses, raille le Pdg. La première étape consiste à définir précisément le point de départ de l'IA, les performances attendues, les objectifs et les outils qu'elle utilisera. » Selon lui, les résultats de l'enquête suggèrent que le déploiement à grande échelle d'agents d'IA pourrait encore prendre des années. Il prédit que le pourcentage d'organisations utilisant des agents en production, estimé à 1 %, atteindra 3 % ou 4 % en 2027, et que 30 % des entreprises seront réellement dotées d'agents en production en 2030.
Le Pdg demeure toutefois convaincu que les agents d'IA apporteront des bénéfices considérables, mais il exhorte les fervents défenseurs de cette technologie à modérer leurs discours d'ici là. « Nous pouvons déjà utiliser l'IA pour améliorer nos performances en entreprise, mais l'idée d'une IA automatisant tout et intégrant des agents dans chaque produit numérique est juste en train d'émerger, affirme-t-il. Si nous restons calmes et que nous conservons des attentes réalistes, tous ces investissements pourraient bien porter leurs fruits. » A terme.
Article rédigé par
Grant Gross, CIO US (adapté par Reynald Fléchaux)
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire