Technologies

Votre agent IA est opérationnel, mais quid de votre infrastructure ?

Votre agent IA est opérationnel, mais quid de votre infrastructure ?
Selon une étude de Docker, la complexité de l'orchestration de multiples composants représente le principal défi lors de la création d’un système agentique. (Photo : Jason Yuen/Unsplash)

À mesure que l'IA agentique passe des phases pilotes à la production, les entreprises réalisent que les principales lacunes ne résident pas dans les capacités de l'IA elle-même, mais dans l'infrastructure qui l'entoure. Sécurité, couche sémantique, orchestration, monitoring : sans ces composantes, point de système agentique efficace.

PublicitéIDC estime qu'à la fin de l'année dernière, plus de 28 millions d'agents d'IA étaient déjà déployés, et prévoit que plus d'un milliard seront actifs d'ici 2029, exécutant 217 milliards d'actions par jour. « Créer une expérimentation (PoC) avec un agent d'IA est facile, explique Venkat Achanta, directeur de la technologie, des données et de l'analytique chez TransUnion, une société d'information sur le crédit réalisant un chiffre d'affaires de 4,6 Md$. Mais le gouverner, le sécuriser et le faire évoluer représente un tout autre défi, en particulier pour les entreprises de secteurs fortement réglementés comme les services financiers et la santé.»

Pour relever ce défi, TransUnion a consacré les trois dernières années au développement de sa plateforme d'IA multi-agents, OneTru. L'objectif : créer une solution aussi fiable et déterministe que les anciens systèmes automatisés, basés sur des scripts et des systèmes experts, mais avec la flexibilité de l'IA générative et la simplicité d'usage d'un chatbot. L'astuce consistait à combiner le meilleur des deux mondes : utiliser des systèmes traditionnels pour les processus clés où l'explicabilité et la fiabilité sont essentielles, et intégrer progressivement des fonctionnalités de GenAI pour les tâches pour lesquelles elles étaient particulièrement adaptées. L'infrastructure nécessaire n'étant pas disponible, TransUnion a développé la sienne, en y consacrant 145 M$.

Décomposer une tâche en travaux élémentaires

Cet investissement conséquent dans une technologie non éprouvée a déjà permis de réaliser 200 M$ d'économies. De plus, une fois la plateforme mise en place, TransUnion l'a utilisée pour concevoir des solutions destinées à ses clients. En mars dernier, par exemple, TransUnion a lancé son agent AI Analytics Orchestrator, développé sur la plateforme OneTru et basé sur les modèles Gemini de Google. Cet agent était déjà utilisé en interne pour améliorer les résultats d'analyse, et les clients peuvent désormais l'utiliser pour réaliser leurs propres analyses de données sophistiquées sans avoir besoin de data scientists. Selon Venkat Achanta, de nombreux clients utilisent les données de TransUnion mais n'ont pas recours à d'autres solutions ou plateformes. Le nouvel agent orchestrateur a le potentiel d'aider les clients à tirer davantage de valeur de leurs données et à générer de nouvelles sources de revenus pour l'entreprise.

D'autres agents sont en cours de développement, indique le CTO et responsable data. La clef de leur bon fonctionnement repose sur l'orchestration, la gouvernance et la sécurité. Programmer un agent est très simple et ne prend que quelques jours, explique-t-il. « Mais je dispose des fondations et des garde-fous, et l'agent déployé sur ma plateforme les utilise tous », précise-t-il.

PublicitéLe secret du bon fonctionnement des agents d'IA réside dans la séparation d'une tâche en travaux élémentaires et dans l'attribution de chacun à un système différent, opérant sous un ensemble de contraintes. Cette approche limite les dommages qu'un agent peut causer, crée un système de contrôle et d'équilibre, et permet de réserver les activités les plus risquées à une technologie d'IA de génération précédente.

Rendre le système agentique plus fiable

Par exemple, chez TransUnion, la prise de décision clef est assurée par une version mise à jour d'un système expert. Il fonctionne selon un ensemble de règles bien définies et vérifiables, et ce, de manière prévisible, économique et avec une faible latence. Quand le système fait face à une situation inédite, un LLM analyse le problème, un autre agent peut ensuite le transformer en une nouvelle règle, et un humain peut être sollicité pour examiner les résultats avant l'intégration de cette nouvelle règle au système expert. Et différents agents supplémentaires interagissent avec la couche sémantique, avec les humains ou effectuent d'autres tâches.

« Avec la couche de raisonnement neuronal - issue du LLM -, nous réintégrons l'humain dans le processus, explique Venkat Achanta. Quand il s'agit de raisonnement symbolique, basée sur la logique et le Machine Learning, nous laissons le processus opérer de façon automatique. » Ainsi, lorsque chaque agent opère dans un cadre très précis, avec les seules données nécessaires à sa tâche, et que ses capacités sont limitées, le système dans son ensemble devient beaucoup plus gouvernable et fiable.

C'est un peu comme la différence entre une chaîne de montage, où plusieurs ouvriers effectuent chacun une tâche unique et distincte, et un atelier où un seul artisan réalise le tout. La chaîne de montage est plus rapide et plus fiable or, aujourd'hui, de nombreuses entreprises déploient leurs agents d'IA comme s'il s'agissait d'artisans. Cette approche peut aboutir à des produits créatifs et uniques, mais ce n'est pas toujours ce dont une entreprise a besoin.

Nicholas Mattei, président du groupe d'intérêt spécial sur l'IA de l'ACM (Association for Computing Machinery, une société savante se focalisant sur l'informatique) et professeur à l'université de Tulane, suggère aux entreprises de renforcer la sécurité aux points de connexion des différentes parties du système d'agents. « Assurez-vous de la sécurité à tous les niveaux », conseille-t-il. Par exemple, si un agent envoie des requêtes à un service de messagerie, établissez un point de contrôle entre les deux. « C'est aux points de jonction entre les agents non fiables et les logiciels traditionnels que vous devez concentrer vos efforts de sécurité », précise-t-il.

Les failles de McKinsey

Selon une enquête de l'éditeur de plateforme low-code Jitterbit, menée auprès de 1 500 responsables informatiques et publiée en mars, la responsabilité de l'IA (sécurité, auditabilité, traçabilité et garde-fous) est le facteur le plus déterminant dans la décision d'achat d'une solution d'IA, avant même la rapidité de mise en oeuvre, la réputation du fournisseur et le coût total de possession (TCO). Les risques liés à la sécurité, à la gouvernance et à la confidentialité des données figurent également parmi les principaux obstacles au passage en production des initiatives d'IA, avant même les coûts et les difficultés d'intégration. Et ces inquiétudes sont justifiées.

Plus tôt cette année, des chercheurs de la société de cybersécurité CodeWall sont parvenus à compromettre la nouvelle plateforme d'IA de McKinsey, Lilli. Grâce à un outil d'IA développé en interne, les chercheurs ont pu accéder à 47 millions de messages du chat, 728 000 fichiers, 384 000 échanges avec des assistants IA, 94 000 espaces de travail, 217 000 messages d'agents, près de 4 millions de fragments de documents RAG, ainsi qu'à 95 prompts système et configurations de modèles d'IA. « Il s'agit de décennies de recherche, de frameworks et de méthodologies propriétaires de McKinsey - le fleuron intellectuel de l'entreprise -, exposé dans une base de données accessible à tous », ont écrit les chercheurs.

La raison de cette fuite de données ? Sur plus de 200 points d'accès API publics, 22 ne nécessitaient aucune authentification. Il n'a fallu que deux heures aux chercheurs pour obtenir un accès complet en lecture et en écriture à l'intégralité de la base de données de production de Lilli. McKinsey a réagi rapidement à l'alerte, corrigé les points d'accès non authentifiés et pris d'autres mesures de sécurité. « Notre enquête, menée avec le soutien d'un cabinet d'expertise judiciaire de premier plan, n'a révélé aucune preuve d'accès aux données ou informations confidentielles de clients par ce chercheur ou toute autre tierce partie non autorisée », a déclaré l'entreprise dans un communiqué.

Les dangers de la délégation de pouvoirs

IDC affirme que cet incident souligne à quel point une faille de sécurité dans un système d'IA peut être dangereuse pour une entreprise. « La plupart des entreprises perçoivent encore les risques liés à l'IA selon des critères dépassés : fuites de données, résultats erronés et atteinte à la réputation de la marque, analyse Alessandro Perilli, vice-président de la recherche en IA chez IDC. Ce sont des problèmes sérieux, mais le risque majeur réside dans la délégation de pouvoirs aux systèmes d'IA. »

En accédant à une plateforme d'IA agentique, un attaquant peut non seulement consulter des informations confidentielles, mais aussi modifier subrepticement le fonctionnement des processus. Et la sécurisation des systèmes d'IA agentique à l'échelle de l'entreprise ne représente que la moitié du défi auquel sont confrontés les DSI. Selon Gartner, 69% des organisations soupçonnent leurs employés d'utiliser des outils d'IA interdits. Selon le cabinet, 40% d'entre elles subiront des incidents de sécurité ou de conformité d'ici 2030.

Le casse-tête du recensement des agents

Par ailleurs, les outils de découverte disponibles ne sont pas encore totalement au point pour identifier tous les agents d'IA, estime Gartner. « Si je vous demandais combien d'agents sont actuellement en production dans votre entreprise, où iriez-vous trouver cette information ?, interroge Swaminathan Chandrasekaran, responsable des laboratoires d'IA et de données chez KPMG, entreprise qui compte aujourd'hui plusieurs milliers d'agents d'IA en production. Ont-ils tous été intégrés et possèdent-ils une identité ? Ont-ils suivi une procédure d'authentification adéquate et qui en est responsable ? Cette infrastructure n'existe pas encore. » Des outils commencent tout juste à émerger, ou bien les entreprises développent des solutions maison, explique-t-il. « C'est ce qui rassurera les DSI », affirme-t-il.

On observe déjà des cas d'employés utilisant des IA puissantes avec des conséquences négatives. Summer Yue, une cadre de Meta, a récemment décidé d'utiliser OpenClaw, un outil d'IA open source devenu viral, pour gérer sa boîte mail. Après l'avoir testé avec succès dans une boîte de réception de test, elle l'a déployé en production. « Rien n'est plus humiliant que de demander confirmation à OpenClaw avant d'agir et de le voir vider votre boîte mail à toute vitesse, a-t-elle écrit sur X. Impossible de l'arrêter depuis mon téléphone. J'ai dû courir vers mon Mac mini comme si je désamorçais une bombe. »

Auparavant, un employé pouvait transmettre des informations sensibles à un chatbot ou lui demander de rédiger un rapport qu'il copiait-collait ensuite pour le faire passer pour le sien. Avec l'évolution de ces chatbots vers des systèmes entièrement automatisés, les agents ont désormais la capacité d'effectuer toutes les actions autorisées à un utilisateur, y compris l'accès aux systèmes de l'entreprise. Pour gérer ce nouveau risque de sécurité, les entreprises devront passer de contrôles basés sur les rôles et les identités à des contrôles basés sur l'intention, explique Rakesh Malhotra, associé principal en technologies digitales et émergentes chez EY.

Selon lui, il ne suffit pas de demander à un agent s'il est autorisé à accéder à un système pour modifier un enregistrement. Les entreprises doivent pouvoir lui demander pourquoi il effectue cette modification. Un défi majeur. « Les solutions d'observabilité ne permettent pas de comprendre l'intention derrière l'action de l'agent, souligne Rakesh Malhotra. Et c'est un point crucial. La confiance repose sur l'intention, et aucun de ces systèmes n'est en mesure de la saisir. »

Si un employé tentait de remanier l'intégralité de la base de codes source, une justification valable lui serait invariablement demandée. « Et si vous remaniez ce code sans raison particulière, vous devriez peut-être vous abstenir, explique Rakesh Malhotra. Pour les humains, des mécanismes de contrôle existent. Mais je ne sais pas comment procéder avec des agents. »

Le contexte est le nouvel avantage concurrentiel

Venkat Achanta a évoqué à plusieurs reprises l'importance de la base sémantique associée à la plateforme OneTru de TransUnion. Cette couche permet aux systèmes de comprendre non seulement la nature des données, mais aussi leur signification et leurs liens avec d'autres données. Gartner affirme que le développement d'une couche sémantique est désormais indispensable pour les entreprises déployant l'IA. « C'est le seul moyen d'améliorer la précision, de maîtriser les coûts, de réduire considérablement la dette technique liée à l'IA, d'harmoniser les systèmes multi-agents et d'enrayer les incohérences coûteuses avant qu'elles ne se propagent », déclare le cabinet.

D'ici 2030, les couches sémantiques universelles seront considérées comme une infrastructure critique, au même titre que les plateformes de données et la cybersécurité, selon les prévisions de Gartner. Car les agents ont besoin de contexte pour exploiter efficacement les données, note Swaminathan Chandrasekaran de KPMG. C'est là que réside le savoir-faire d'une entreprise. « C'est la nouvelle propriété intellectuelle de l'entreprise, résume-t-il. Le contexte est le nouvel avantage concurrentiel. »

Pour John Arsneault, DSI de Goulston & Storrs, un cabinet américain d'avocats, la mise en place d'une base de données solide est également un moyen d'éviter la dépendance à un fournisseur spécifique. « Si vous achetez des solutions et y transférez vos données pour automatiser vos flux de travail ou créer des assistants interactifs, il vous sera difficile d'en sortir, explique-t-il. En revanche, avec une approche centrée sur les données, vous pouvez au moins passer d'une solution à l'autre en cas d'évolution du marché. »

Le cabinet d'avocats a migré ses outils destinés aux clients vers NetDocuments, un système de gestion documentaire spécifiquement conçu pour le secteur juridique. Quant aux autres données collectées par l'entreprise, elles sont intégrées au lac de données juridiques d'Entegrata. « Notre objectif est que toutes nos autres applications finissent par pointer vers ce lac de données, indique le DSI. Nous aurons ainsi deux environnements où coexisteront toutes les données du cabinet, ce qui nous permettra d'y intégrer n'importe quel outil d'IA. » Selon John Arsneault, cela simplifiera également la gestion des flux de données et permettra au cabinet de s'adapter rapidement aux futures technologies d'IA. « Qu'il s'agisse d'IA générative, d'agents ou d'outils d'Anthropic, avec le plugin juridique Cowork, suivre le rythme est devenu très difficile ; les technologies évoluent tous les six mois », précise le DSI.

Orchestration des agents : facteur critique

Après la mise en place de garde-fous de sécurité et la création d'une couche de données sémantiques, l'orchestration constitue la dernière étape de la mise en place d'une infrastructure d'IA agentique. Les systèmes agentiques nécessitent que une communication entre agents et avec les utilisateurs humains, et des interactions avec les sources de données et outils. Un défi complexe. Et cette technologie, bien qu'évoluant rapidement, n'en est qu'à ses balbutiements. MCP (Model Context Protocol) en est un exemple et représente un élément clé pour résoudre ce problème d'orchestration. Les fournisseurs d'IA se sont montrés remarquablement disposés à coopérer autour de ce protocole.

« À l'aube des réseaux sociaux, lorsque Facebook et Twitter discutaient d'un protocole standard d'interaction, personne ne souhaitait adopter le protocole de ses concurrents, explique Agustin Huerta, vice-président senior de l'innovation et vice-président de la technologie chez Globant, une entreprise spécialisée dans la transformation numérique. Aujourd'hui, tout le monde utilise MCP et contribue à son développement en tant que protocole standard. »

Malgré tout, l'intégration des agents n'est pas encore une solution aboutie. D'après une étude de Docker menée auprès de plus de 800 décideurs et développeurs informatiques, la complexité opérationnelle de l'orchestration de multiples composants représente le principal défi lors de la création d'agents. Plus précisément, 37% des répondants estiment que les frameworks d'orchestration sont trop fragiles ou immatures pour une utilisation en production, et 30% signalent des lacunes en matière de tests et de visibilité dans les orchestrations complexes. Par ailleurs, si 85% des équipes sondées connaissent MCP, la plupart indiquent que d'importants problèmes de sécurité, de configuration et de capacité de supervision empêchent son déploiement en production. Sans parler des problèmes d'intégration.

Où sont les outils de contrôle ?

« Un problème non résolu reste celui de la mise en place d'un tableau de bord performant permettant de contrôler tous ces agents et de connaître précisément l'activité de chacun, explique ainsi Agustin Huerta. Il existe des tableaux de bord pour les agents développés avec OpenAI et pour ceux hébergés sur Salesforce, mais aucun outil ne permet d'accéder aux données de télémétrie depuis un tableau de bord centralisé assurant le contrôle, l'audit et la journalisation. » Pour les entreprises qui commencent tout juste à déployer des agents ou qui utilisent une seule plateforme, ce n'est pas encore un problème. Mais à mesure qu'elles s'appuieront sur un réseau d'agents plus étendu, elles commenceront à se heurter des difficultés, selon Agustin Huerta. Globant, par exemple, développe actuellement son propre tableau de bord interne pour les agents.

Chez Brownstein Hyatt Farber Schreck, un cabinet d'avocats fondé il y a 50 ans et comptant environ 700 employés et des clients dans tous les États-Unis, l'IA est déployée dans plusieurs domaines, notamment pour la génération de propositions. Normalement, l'examen d'une demande de proposition client, la consultation de notes manuscrites ou de comptes rendus de réunions, et la collecte d'autres documents pertinents peuvent prendre plusieurs jours à plusieurs personnes, rappelle Andrew Johnson, le DSI du cabinet. « Nous pouvons désormais intégrer toutes ces informations dans un ordinateur et extraire les critères clés pour produire une première ébauche de qualité en quelques minutes », affirme-t-il.

Monitorer les coûts d'inférence

Pour ce faire, plusieurs agents sont nécessaires à différentes étapes du processus : l'un pour extraire les critères de réussite ou les besoins en personnel, un autre pour rechercher des précédents et des enseignements tirés de l'expérience, et d'autres encore pour la tarification et le respect des normes du cabinet. « Chacun de ces agents est autonome et doit être orchestré afin que ses résultats soient transmis à l'étape suivante, détaille Andrew Johnson. Dans la plupart des cas, cela implique un système RAG, car la plupart des plateformes existantes utilisées par l'entreprise n'intègrent pas encore de couche MCP ».

Selon la tâche, les agents peuvent être motorisés par différents modèles, ce qui représente une couche d'orchestration supplémentaire à gérer. Vient ensuite la question du suivi des coûts. Si un agent d'IA ou un groupe d'agents entre dans une boucle de rétroaction infinie, les coûts d'inférence peuvent rapidement exploser. « Nous sommes conscients de ce problème, même si nous ne l'avons pas encore constaté, souligne le DSI de Brownstein Hyatt Farber Schreck. Nous avons donc mis en place un système de monitoring. Si nous dépassons certains seuils, nous réagissons. »

Quelles que soient les stratégies ou les mesures prises pour absorber les revers, tout ce qui touche à l'IA évolue plus vite que tout ce que les entreprises ont connu jusqu'à présent. « Je travaille dans le secteur des technologies depuis 25 ans et je n'ai jamais rien vu de tel, dit ainsi Rakesh Malhotra d'EY. Les entreprises ayant connu la croissance la plus rapide de toute l'histoire ont toutes été créées au cours des trois ou quatre dernières années. L'adoption de ces technologies est tout simplement sans précédent. Je discute constamment avec des entreprises qui mettent en oeuvre des technologies qui étaient très pertinentes il y a neuf ou dix mois. Or, tout le monde est déjà passé à autre chose. »

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis