L'indispensable adaptation au développement hybride entre IA et code traditionnel
Avec l'IA et l'agentique, un nouveau défi attend les équipes de développement : l'hybridation entre code traditionnel et IA. La démarche présente des enjeux technologiques et organisationnels, mais aussi plus spécifiques comme la définition des limites entre les deux techniques.
PublicitéDe nombreuses DSI pensaient attaquer la nouvelle année avec de l'IA multi-agent, mais elles se retrouvent face à un enjeu bien plus pragmatique : la gestion simultanée dans un même développement, de code probabiliste, piloté par l'IA, et du code déterministe traditionnel. On ne parle pas d'un portefeuille applicatif combinant les deux, mais bien du nombre croissant d'applications hybrides qui doivent intégrer avec soin et expertise le meilleur des deux mondes : la prédiction et la connaissance.
Les équipes IT travaillent de moins en moins sur des pilotes ou des prototypes réalisés avec des IA sur étagère ou sur des applications agentiques développées uniquement avec des plateformes dédiées. Elles doivent désormais s'adapter à du développement de solutions qui nécessitent d'associer IA et code traditionnel. Avec ces applications entièrement nouvelles, conçues à partir de zéro, les DSI se retrouvent rapidement face à une sorte de mi-chemin complexe et doivent décider où tracer les limites et comment organiser leurs équipes.
Voici quatre recommandations à leur intention pour déterminer la meilleure façon d'intégrer le code agentique probabiliste et le code déterministe traditionnel, en particulier dans les projets qui nécessitent une intégration soignée des deux.
Établir limites et garde-fous
La première étape consiste à comprendre dans quels domaines chaque technologie fonctionne le mieux et à élaborer des lignes architecturales directrices et des bonnes pratiques pour les équipes de développement et d'intégration. Quais Taraki, CTO de l'éditeur de plateforme data et IA EDB Postgres AI, recommande, par exemple d'utiliser du code déterministe pour les règles métier faisant autorité et des agents probabilistes pour gérer l'ambiguïté complexe des intentions humaines. « La clé réside dans une architecture à double représentation : les agents suggèrent, tandis que la logique traditionnelle garantit l'intégrité du système d'information », explique-t-il. « En les regroupant sur une plateforme unique, on élimine les coûts d'intégration généralement associés à l'ajout d'IA aux systèmes existants, tout en conservant une maîtrise totale de vos données et de votre logique. »
Pour Michael Fauscette, analyste principal du cabinet Arion Research, les DSI doivent fixer un cadre de décision dans lequel le code classique sert lorsque les résultats sont prévisibles, auditables et reproductibles, et les approches agentiques et probabilistes réservées aux tâches exigeant du raisonnement, du jugement ou la gestion de l'ambiguïté à grande échelle. « Concrètement, cela signifie laisser les agents gérer les aspects complexes des workflows, comme l'interprétation, la synthèse et l'aide à la décision », précise-t-il, « tandis que le code traditionnel prend en charge la validation des données, le traitement des transactions, la logique de conformité et la génération de résultats structurés. »
PublicitéOrganisez les équipes hybrides
Cependant, Sangeet Paul Choudary, consultant en stratégie IA et auteur, tempère. Pour lui, tout dépend de l'équilibre entre la tolérance à l'échec et les avantages liés à l'innovation. « Les agents peuvent contribuer à trouver des solutions inédites à certains problèmes. Solutions auxquelles les développeurs n'auraient pas pensé. Dans ce cas, je privilégierais une conception centrée sur les agents, le code servant alors de mécanisme de contrôle », explique-t-il. « En revanche, quand la tolérance à l'échec est faible, j'opterais pour l'approche inverse. » Par ailleurs, pour les équipes qui travaillent d'abord sur la partie agentique dans le cadre d'un nouveau projet, il est crucial d'optimiser en priorité le code et ses résultats. L'objectif est généralement d'obtenir une précision et une reproductibilité optimales avant de décider d'intégrer les garde-fous du code traditionnel. Par exemple, des prompts mal conçus ou des LLM peu adaptés à un cas d'usage spécifique feront bouger les lignes entre les deux types de code et conduiront même à sous-exploiter la puissance des agents par souci de sécurité, en privilégiant le code traditionnel.
Ces nouvelles applications hybrides nécessitent des équipes avec des compétences diverses. Mais Quais Taraki va plus loin et recommande de considérer les agents comme des employés hautement qualifiés au sein de leur organisation. « Comme tout employé disposant d'un accès et d'une autonomie importants, leur impact peut être considérable et avoir des conséquences importantes, positives ou négatives », explique-t-il. « Pour réussir, il est essentiel de décloisonner les équipes IA et celles de développement traditionnel afin de garantir que l'orchestration et l'observabilité soient considérées comme une infrastructure critique. » Michael Fauscette conseille, lui, de repenser la composition des équipes afin d'y inclure des rôles de passerelle - des ingénieurs qui comprennent à la fois l'architecture logicielle traditionnelle et les modèles de conception d'agents - car les équipes cloisonnées créent une dette d'intégration qui s'accumule rapidement. De plus, selon Sangeet Paul Choudary, il est important de privilégier une assurance qualité plus proactive, avec des contrôles réalisés en amont, en collaboration par des agents et des humains au sein même l'environnement de développement.
Par ailleurs, les transitions et les interactions entre code automatisé et code traditionnel ne se résument pas toujours à un simple appel d'API et à la sortie un programme structuré. Il est donc essentiel de tenir compte non seulement des workflows entre humains et IA, mais aussi des nombreuses interfaces entre code probabiliste et déterministe. Comme les transitions entre humains et machines, celles entre l'IA et le code traditionnel doivent être bien définies et les développeurs doivent comprendre les compromis nécessaires.
Se concentrer sur la gouvernance et la modélisation des coûts.
Bien que les démarches hybrides accélèrent le développement, la réduction des délais et des coûts devra probablement être réaffectée en amont, à une conception et à une architecture logicielles soignées et, en aval, aux tests, à la surveillance et à la modélisation des coûts. En ce qui concerne ces derniers, les systèmes hybrides introduisent une nouvelle complexité du point de vue de la gouvernance et du TCO, car les composants probabilistes ont des chemins d'exécution variables et des structures de coûts basées sur des tokens qui ne s'intègrent pas facilement dans les cadres traditionnels de planification des capacités ou d'assurance qualité.
Le calcul des coûts d'inférence nécessite éventuellement la définition de nouvelles règles pour définir les limites d'utilisation pour les utilisateurs finaux. Mais Quais Taraki rappelle que le TCO de l'ère des agents ne se résume pas aux coûts d'inférence, mais englobe également la rigueur opérationnelle requise pour gérer des systèmes non déterministes à grande échelle.
Le multi-agent transforme le code en cible mouvante
À toutes ces règles déjà naturellement complexes du développement hybride, agentique et traditionnel s'ajoute l'évolution permanente des agents qui transforme le code en cible mouvante. Sangeet Paul Choudary rappelle ainsi que, dans les architectures hybrides, le centre de gravité se déplace d'année en année vers les agents. « Au départ, les agents fonctionnaient avec du code existant », explique-t-il. « Aujourd'hui, on observe une augmentation du nombre de systèmes nouveaux conçus autour des capacités des agents et utilisant le code traditionnel pour optimiser les performances et gérer les risques. »
Pour s'adapter, Michael Fauscette recommande d'opter pour un workflow multi-agent quand la tâche implique un travail cognitif de bout en bout, comme la recherche, l'analyse et la planification, et une approche hybride combinant IA et méthodes traditionnelles lorsqu'un contrôle précis des résultats, la conformité réglementaire ou l'intégration aux systèmes d'information existants, par exemple, sont nécessaires. « La frontière entre ces deux modèles devrait s'estomper d'ici 12 à 18 mois », estime-t-il, « à mesure que les frameworks multi-agents gagneront en maturité et offriront une meilleure prise en charge native des points de contrôle déterministes, des résultats structurés et de l'intervention humaine ».
Article rédigé par
Nicholas D. Evans, CIO.com (adapté par E.Delsol)
Partager cet article
Articles à la une
L'indispensable adaptation au développement hybride entre IA et code traditionnel
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire