Claude Cowork, OpenClaw... : la rapidité de l'IA autonome est un atout, mais aussi un risque
L'IA agentique autonome promet de nouveaux gains d'efficacité, par sa capacité à organiser et réaliser les workflows très rapidement. Des avantages qui présentent cependant des risques importants, dont la potentielle réplication d'erreurs à grande échelle et à grande vitesse.
PublicitéDepuis la fin de l'année dernière, deux nouvelles solutions d'agentique ont particulièrement retenu l'intérêt des utilisateurs et les ont conduit à lâcher prise, laissant ces outils accomplir des tâches à leur place, en autonomie. En effet , fin 2025, Peter Steinberger, désormais chez OpenAI, a lancé son projet open source OpenClaw et, début 2026, Anthropic a déployé sa plateforme Claude Cowork pour MacOS et Windows. De nouveaux sujets d'attention pour les DSI qui doivent se préparer à gérer les conséquences de leur utilisation.
Pour Neal Riley, ancien DSI du cabinet de conseil IT The Adaptavist Group, de nombreuses organisations, y compris parmi celles avec une forte aversion au risque, ont commencé à expérimenter de telles IA autonomes dans le but de remodeler leurs workflows. Malgré les inquiétudes concernant les hallucinations ou la Shadow AI, ces premiers utilisateurs d'agentique voient un énorme potentiel dans la technologie pour démultiplier les forces et, par exemple, permettre à des personnes non techniques de résoudre des problèmes informatiques mineurs sans impliquer l'IT. « Nous voyons de plus en plus d'entreprises investir massivement dans ce type de processus très orientés vers l'action, qui laissent un certain niveau d'autonomie aux systèmes tout en permettant un contrôle strict et réglementé », dit Neal Riley.
Attention à l'excès de confiance
La facilité d'utilisation est un des vecteurs du succès de ces agents autonomes. Les bots OpenClaw s'intègrent ainsi à des LLM tels que Claude ou les modèles GPT d'OpenAI, et les utilisateurs y accèdent via un simple chatbot dans une messagerie instantanée comme Whatsapp, Telegram ou Discord. D'autres utilisateurs donnent directement à Claude Cowork l'accès à leurs applications et à leurs fichiers, puis lui demandent d'effectuer des tâches. À partir de là, l'outil peut organiser des fichiers, créer des feuilles de calcul, préparer des rapports et analyser des notes en accédant à ces éléments sur l'ordinateur de l'utilisateur, en récupérant des informations contextuelles depuis des applications comme Slack et en effectuant des recherches sur le Web. Enfin, selon Anthropic, avant d'agir, Claude présente son plan d'action et attend l'approbation de l'utilisateur. Reste que certains accordent à ces agents autonomes un niveau de contrôle élevé, avec un accès sans limites strictes à leur machine, ce qui engendre des risques importants.
Même les meilleurs tombent sous le charme, à leurs risques et périls. Ainsi, fin février 2026, Summer Yue, chercheuse en sécurité chez Meta AI, a tweeté qu'OpenClaw avait tenté de supprimer sa boîte mail après qu'elle lui a demandé de la nettoyer. « Rien n'est plus humiliant que de répondre oui à OpenClaw lorsqu'il demande : "confirmez avant d'agir" et de le voir supprimer votre boîte mail à toute vitesse », a-t-elle écrit. La chercheuse a reconnu avoir commis une erreur de débutante. « Même les chercheurs spécialisés dans l'alignement de l'IA sur les règles de sécurité ne sont pas à l'abri d'erreurs... d'alignement sur ces règles », a-t-elle amèrement plaisanté. « J'ai pêché par excès de confiance, parce que le processus fonctionnait depuis des semaines sur ma boîte de réception virtuelle. Mais, avec les vraies boîtes mail, c'est une tout autre histoire ! » D'autres chercheurs ont également découvert plusieurs failles de sécurité dans OpenClaw, notamment une vulnérabilité aux attaques par injection de prompts.
PublicitéUne question d'équilibre risque/bénéfice
C'est là que le bât blesse : les experts en IA entrevoient d'énormes avantages potentiels liés à l'IA autonome - avec la possibilité de réaliser d'énormes gains d'efficacité -, mais les risques sont considérables. « Pour être précis, lorsqu'on parle des avantages des agents autonomes, on parle bien d'abord de remplacer des tâches réalisées aujourd'hui par des humains, mais c'est presque un effet secondaire, explique Neil Riley. En réalité, ils permettent une coordination différente, avec une meilleure circulation de l'information au sein de l'équipe, pour une production plus rapide et de meilleure qualité. »
Selon leurs partisans, les IA autonomes devraient par conséquent permettre aux organisations de redéployer leurs effectifs humains vers de nouvelles tâches, éliminant ainsi une grande partie des travaux répétitifs. « Mais une fois qu'on commence à faire confiance à ces systèmes autonomes pour certaines tâches, il arrive souvent qu'ils ne soient en réalité ni plus rapides ni même plus performants que les humains, tempère Neil Riley. Leur principal avantage, c'est de se passer de l'intervention humaine, ce qui permet aux personnes concernées de se consacrer à d'autres projets. »
« De nombreuses entreprises n'en sont qu'aux prémices de leur parcours en matière d'IA autonome, rappelle de son côté Upal Saha, CTO de Bem, fournisseur de solutions d'intégration de données pour l'IA. L'un des principaux défis consiste à faire comprendre aux IA le fonctionnement de l'entreprise. Dans la plupart des organisations, les liens entre les processus, les données et les décisions ne sont pas clairement documentés. Ces connaissances sont dispersées entre les équipes et les individus. Sans ce contexte opérationnel, même les plus compétents des agents vont faire des suppositions plutôt que d'agir. » Pour le CTO, c'est pour cela que la rapidité des agents est à double tranchant. Avec le contexte adéquat, ils peuvent condenser des heures de travail manuel en quelques secondes. Mais, revers de la médaille, s'ils comprennent mal un workflow ou une structure de données, ils vont aussi répéter leur erreur à grande échelle et à grande vitesse.
« Essayez, vous verrez bien comment ça marche »
Russell Twilligear, responsable de la R&D en IA chez BlogBuster, fournisseur de contenu généré par l'IA, confirme. Il estime lui aussi qu'une transition de systèmes qui se contentent de générer du texte vers des systèmes capables d'exécuter des tâches complexes est déjà en cours. « Les agents autonomes ne se contentent pas de répondre à une simple requête, ils passent de l'intention à l'exécution en collectant des informations, en mettant à jour les systèmes, etc. Cependant, un danger existe s'ils sont mal implémentés. Le principal inconvénient, c'est que dans ce cas, le système va se développer plus vite qu'on ne pourra le contrôler. Et cela se traduit par des risques de sécurité et des dysfonctionnements à chaque nouvelle intégration. » Selon lui, la sécurité et la supervision sont ainsi les principaux défis à relever. « Lorsqu'un agent peut accéder aux courriels, aux fichiers, aux navigateurs, etc., les risques sont immenses. Mais le problème majeur, c'est la rapidité avec laquelle tout cela se produit », résume Russell Twilligear.
« Les DSI qui déploient des agents autonomes doivent mettre en place des contrôles robustes, s'assurer que leurs données sont propres et accessibles, et que les autorisations de leurs applications sont correctement configurées », rappelle Neil Riley, de The Adaptavist Group. Il les encourage néanmoins à permettre aux employés d'expérimenter cette technologie émergente en raison de son adoption imminente pour obtenir de meilleurs résultats lors des déploiements. « Il est essentiel de comprendre le fonctionnement de tous ces outils désormais disponibles, précise-t-il. Ils apparaissent si rapidement que les modèles de formation et d'accompagnement proposés il y a seulement dix ans pour les logiciels classiques n'existent plus. La plupart des DSI se contentent de dire : "Essayez, vous verrez bien comment ça marche." »
Article rédigé par
Grant Gross, CIO.com (adapté par E.Delsol)
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire