Stratégie

Les projets d'agentique butent contre la responsabilisation et les coûts

Les projets d'agentique butent contre la responsabilisation et les coûts
Survendue, l'autonomie de l'agentique pose néanmoins des questions techniques et de gouvernance aux DSI. Elle impose aussi de nouvelles structures de coûts et manque de transparence et de réversibilité. (Photo Pixabay/GAltman)

Quand les entreprises passent rapidement de projets d'agentique pilotes à des systèmes complètement autonomes, la hausse des coûts, la fragilité de la gouvernance et les attentes irréalistes les obligent à refaire leurs comptes. Comment distinguer les projets viables de ceux qui disparaissent discrètement ?

PublicitéL'IA agentique est rapidement devenue un terme controversé. Les fournisseurs IT promettent des systèmes capables de prendre des décisions et d'agir de manière autonome, faisant passer l'IA de l'assistance à l'exécution. Pour les DSI soumis à la pression d'obtenir un retour sur investissement mesurable avec l'IA, l'attrait est fort. Mais derrière cet engouement apparant, un nombre croissant d'entreprises appuient déjà sur le frein. Gartner prévoit même que plus de 40% des projets d'IA agentique seront annulés d'ici à la fin 2027. « La plupart des projets actuels sont encore à un stade précoce ou relèvent de POC principalement motivés par le buzz autour de la technologie et souvent mal appliqués », explique Anushree Verma, analyste directrice senior chez Gartner.

Une partie du problème réside dans la confusion qui règne sur le marché, selon Gartner. Un phénomène qu'Anushree Verma qualifie de « blanchiment d'agents » (agent washing). Face à l'engouement pour l'agentique, de nombreux fournisseurs ont simplement rebaptisé leurs chatbots ou assistants IA existants, sans pour autant proposer de résultats concrets. « La plupart des solutions d'IA agentique manquent de valeur ajoutée et de retour sur investissement, car les modèles actuels ne possèdent ni la maturité ni l'autonomie nécessaires pour atteindre des objectifs commerciaux complexes ou au contraire, suivre des instructions plus nuancées sur la durée », explique l'analyste.

Lier les projets à des résultats business opérationnels

Le décalage entre vision et réalité n'apparaît cependant souvent qu'une fois les projets passés de la phase pilote à la phase opérationnelle. Et face à l'impossibilité de déployer plus largement, les coûts augmentent, tout comme la pression exercée par la direction pour justifier de la poursuite des investissements. De ce fait, de plus en plus souvent, les projets sont suspendus ou purement et simplement annulés. La vague d'annulations à venir viendra toutefois moins d'un échec technologique pur et simple que de ce décalage entre les attentes et la réalité opérationnelle. Les entreprises découvrent que l'autonomie est bien plus complexe et coûteuse à déployer que ne le laissaient présager les premières démonstrations.

Au début des essais, l'IA agentique semble souvent prometteuse. Une focalisation des projets, des données propres et un contrôle humain intensif créent des conditions dans lesquelles les systèmes semblent performants et efficaces. Mais l'agentique survit rarement au premier contact avec les environnements de production. Pour Anushree Verma, la manière dont la valeur tirée de ces projets est présentée constitue un signal d'alarme. « Si l'on continue de ne parler que de gain de temps et de productivité individuelle, l'investissement n'est pas justifié », affirme-t-elle. « Les systèmes d'automatisation, doivent être directement liés à des résultats opérationnels concrets, démontrant leur valeur ajoutée dans des domaines tels que la finance, les RH, la sécurité ou les opérations, sans quoi ils auront du mal à survivre à l'examen des équipes de direction. »

PublicitéManque de transparence et de réversibilité

Jeremy Ung, directeur technique chez Blackline, éditeur de logiciels SaaS de finance, constate la même tendance du côté des fournisseurs. « Les projets pilotes sont souvent très prometteurs », explique-t-il. « On obtient des résultats encourageants dans un environnement isolé. » Le problème survient au moment du passage à l'échelle. Les documents varient dans leur structure. Les exceptions se multiplient. Les utilisateurs humains ont des comportements incohérents. « C'est au moment de la mise à l'échelle que la plupart d'entre eux échouent », ajoute Jeremy Ung.

De plus, une fois les systèmes agentiques intégrés dans les workflows réels, il est complexe de revenir en arrière. Car si un processus autonome produit des résultats incohérents, les entreprises doivent non seulement comprendre ce qui n'a pas fonctionné, mais également la façon dont le système est arrivé à ce résultat. Sans quoi, la restauration est risquée et lente.
La gestion du changement complexifie encore davantage le défi. Comme le souligne Jeremy Ung, c'est la première fois que des employés humains gèrent à la fois d'autres humains et des agents IA. Or, pour de nombreuses organisations, former les employés à superviser les systèmes autonomes et à leur faire confiance s'est avéré plus difficile que prévu.

Une structure de coûts complètement nouvelle

Même lorsque les projets pilotes semblent apporter une réelle valeur ajoutée, des contraintes économiques freinent souvent leur expansion. Les systèmes agentiques consomment par exemple les ressources de manière très différente des logiciels d'entreprise traditionnels. Chaque tâche autonome peut déclencher de multiples étapes de raisonnement, appels d'outils, tentatives et validations. « À mesure que les workflows se complexifient, ils consomment de plus en plus de jetons », précise Jeremy Ung. « Et avec l'évolution vers des workflows agentiques, la consommation de ressources augmente encore davantage pour permettre un fonctionnement indépendant. » Ce système rend les coûts volatils et difficiles à anticiper. La tarification basée sur les jetons fluctue en fonction du comportement des agents, et non de la capacité, ce qui perturbe les équipes finance habituées à des dépenses prévisibles. Les conseils d'administration s'interrogent également de plus en plus sur les raisons pour lesquelles les coûts de l'IA s'apparentent progressivement à des dépenses d'exploitation sans limite plutôt qu'à des investissements cadrés avec des rendements définis.

Anushree Verma du Gartner souligne que de nombreuses organisations sous-estiment les coûts de ces environnements, car elles appliquent aux systèmes agentiques des hypothèses de calcul de coût issues de la genAI. « Elles se basent encore sur des critères simplistes, qui ne sont pas adaptés aux IA agentiques », explique-t-elle. « Dès que l'on ajoute des orchestrateurs, des couches de gouvernance et des agents multiples, les coûts explosent. » En conséquence, certaines organisations restreignent délibérément leur champ d'action, tandis que d'autres gèlent complètement leur expansion jusqu'à ce que la maîtrise des coûts soit plus efficace.

L'agentique engage la responsabilité de l'entreprise

À mesure que les projets d'agentique gagnent en visibilité et en coût, ils sortent du seul domaine IT pour s'inviter au conseil d'administration. Ce changement s'avère déstabilisant pour de nombreuses organisations. Contrairement aux précédentes vagues d'automatisation, l'agentique introduit des risques plus difficiles à déléguer. Les systèmes autonomes prennent désormais des décisions, déclenchent des actions et interagissent directement avec les clients ou les systèmes financiers d'une manière qui implique la responsabilité de l'entreprise. Par conséquent, les DSI sont de plus en plus souvent interrogés non seulement sur le bon fonctionnement d'un système, mais aussi sur la façon dont il pourra éventuellement être défendu en cas de litige. Selon Anushree Verma, c'est d'ailleurs là que de nombreux projets échouent. « La gouvernance et la gestion des risques ne sont pas encore adaptées aux systèmes agentiques », explique-t-elle, « notamment lorsque plusieurs agents interagissent et accèdent à différentes applications. » Plus l'autonomie augmente, plus il devient difficile de répondre aux questions fondamentales suivantes de gouvernance : qui a approuvé ce comportement, dans quelles conditions et avec quelles garanties ?

Les conseils d'administration veulent clarifier les responsabilités. Lorsqu'un agent prend une mauvaise décision, la responsabilité ne se dissout pas dans le modèle, mais incombe aux dirigeants ayant approuvé son déploiement. Cette réalité contraint les entreprises à considérer l'agentique moins comme une innovation expérimentale et davantage comme une infrastructure essentielle soumise à des contrôles aussi rigoureux que ceux des systèmes financiers ou de la cybersécurité. Pour de nombreuses organisations, ce moment marque un tournant. Les projets qui ne sont ni expliqués clairement ni justifiés économiquement ne sont plus tolérés en silence. Ils sont ouvertement remis en question, et souvent abandonnés.

L'autonomie face à la complexité de l'environnement

Contrairement à une idée répandue, la précision des modèles n'est pas la principale contrainte de l'IA agentique. Le véritable défi réside dans le déploiement de systèmes autonomes au sein d'environnements caractérisés par la fragmentation, les exceptions et l'incertitude. « Le plus difficile n'est pas la modélisation », confirme Udo Sglavo, VP IA appliquée et modélisation de l'éditeur de BI SAS. « C'est le déploiement des agents dans l'environnement opérationnel. » Il souligne que les entreprises sont souvent confrontées à des défaillances partielles, des intégrations retardées et des cas particuliers qui s'aggravent rapidement lorsque les systèmes fonctionnent de manière autonome.

Les humains gèrent ces situations grâce à leur capacité de jugement et à leur expérience. Les agents, eux, ne disposent pas de ces outils. « Les humains ont de l'intuition », poursuit Udo Sglavo. « Un agent, lui, n'a aucun pressentiment. » Or, face à des situations inédites, le risque d'hallucinations augmente, avec parfois de graves conséquences. C'est pourquoi la conception avec intervention humaine reste essentielle. « La plupart, voire la totalité, des implantations que nous avons réalisées l'exigent ». L'autonomie est optimale lorsque les systèmes gèrent les cas courants et signalent les exceptions, plutôt que de prendre des décisions critiques de manière indépendante. Les capacités à interpréter et à vérifier deviennent également des critères essentiels. « Si nous ne pouvons pas expliquer le fonctionnement d'un système ni reconstituer le processus décisionnel, nos clients ne l'utiliseront pas », affirme Udo Sglavo, notamment dans les secteurs réglementés où les décisions doivent être justifiées longtemps après avoir été prises.

La gouvernance, véritable goulot d'étranglement

À mesure que l'IA agentique se rapproche de la production, c'est la gouvernance, et non l'intelligence, qui s'impose comme la contrainte majeure. Ahmed Zaidi, PDG de la société de services en IA Accelirate, conçoit la gouvernance comme une démarche impliquant à la fois humains, processus et technologie. Sur le plan technique, les entreprises peinent à appliquer des contrôles d'accès et des barrières de sécurité aux systèmes probabilistes. « Nous avons déjà du mal à définir des contrôles d'accès pour les systèmes structurés, rappelle le PDG. Imaginez maintenant, confier des outils à un LLM qui risque d'halluciner. »

La gouvernance des processus représente un défi tout aussi important. Les workflows manuels comportent souvent des contrôles implicites qui disparaissent avec l'automatisation. En l'absence d'une étape de révision de sa conception, un processus d'automatisation peut augmenter le taux d'erreur plutôt que de le réduire. La gouvernance des humains ajoute une dimension supplémentaire. Elle comprend la formation des employés, la redéfinition des responsabilités et la préparation des organisations aux nouveaux modèles de défaillance.

La capacité à interrompre un projet

Ahmed Zaidi souligne qu'une gouvernance efficace implique la capacité à interrompre des projets. Ses équipes suspendent ou annulent régulièrement ceux qui combinent un risque élevé et un retour sur investissement incertain ou en baisse. « Annuler un projet ne signifie pas que la gouvernance a échoué », explique-t-il. « Cela signifie au contraire qu'elle a fonctionné. »
Selon lui, les mesures liées à la prévention des risques (contrôles supplémentaires, niveaux de validation ou supervision humaine) annulent souvent le rendement escompté. Dans ces cas-là, la décision rationnelle consiste à annuler le projet.

Malgré la liste croissante des projets au point mort, l'IA agentique ne recule pas. Simplement, son périmètre se restreint. Les projets qui survivent partagent des caractéristiques communes : ils privilégient l'autonomie spécifique à une tâche plutôt que des agents généralistes et opèrent dans des environnements contraints où les entrées et les sorties sont contenus. Enfin, l'organisation mesure leur succès avec des résultats business mesurables, et non pas avec des gains de productivité abstraits. « Il ne s'agit pas de gagner du temps », explique Jeremy Ung. « Il s'agit d'obtenir des résultats concrets pour votre organisation. » Les déploiements matures associent le comportement des agents à des KPI [indicateurs clés de performance] et à des tableaux de bord décisionnels, pour que les responsables évaluent concrètement la valeur ajoutée et rectifient le tir lorsque les résultats sont insuffisants. Ainsi, un principe se dégage : l'autonomie s'acquiert progressivement. L'humain reste impliqué aux points de décision critiques, des mécanismes de repli sont prévus à l'avance et la gouvernance est continue, non réactive.

De l'expérimentation à la responsabilisation

La prochaine phase d'adoption de l'IA agentique sera plus discrète que la précédente, avec moins d'annonces fracassantes, davantage de projets en suspens et une surveillance accrue de la part des directions financières et des conseils d'administration. Ce changement ne doit pas être interprété comme un échec. Il marque le passage de l'agentique de la phase d'expérimentation à celle de la responsabilisation. Comme le souligne Ahmed Zaidi, les organisations redécouvrent une vieille leçon : on attend des systèmes qu'ils soient parfaits, même lorsque les humains ne le sont pas. Répondre à cette attente requiert de la rigueur, et non de l'emballement. Pour les DSI, la question n'est donc plus de savoir si les agents sont capables d'agir, mais si l'organisation est prête à gouverner, à expliquer et à assumer les conséquences de ces actions.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis