Stratégie

Comment sauver des projets d'IA qui sont en train de sombrer

Comment sauver des projets d'IA qui sont en train de sombrer
Dans l’IA, les échecs de projets sont fréquents. L’enjeu consiste donc à arrêter ces initiatives suffisamment tôt, à capitaliser sur l’expérience acquise et à gérer les doutes que ces renoncements vont engendrer. (Photo : Alexandra Koch/Pixabay)

La plupart des projets d'IA échouent en raison de problèmes organisationnels, et non à cause des modèles eux-mêmes. Les DSI doivent savoir quand corriger et recadrer un projet et, surtout, quand l'abandonner.

PublicitéEn mars 2023, Zapier, entreprise spécialisée dans l'automatisation, a déclenché une alerte rouge interne, incitant ses équipes à se lancer à corps perdu dans l'expérimentation de l'IA. Des prototypes ont fleuri du jour au lendemain. Les workflows ont été entièrement repensés. « L'énergie était incroyable, se souvient Brandon Sammut, directeur des ressources humaines et de la transformation IA de l'entreprise. Les équipes développaient des workflows dopés à l'IA. »

Pourtant, peu de ces automatisations ont été déployées en production. Si les modèles fonctionnaient bien individuellement, ils ne pouvaient pas s'intégrer à l'ensemble des outils, sources de données, circuits d'approbation et processus humains existants chez Zapier. « C'est là que j'ai compris : la difficulté de l'IA ne réside pas dans l'IA elle-même, mais dans son orchestration », indique Brandon Sammut.

Le grand cimetière des PoC

Ce fossé entre la démo et la production n'est qu'une des raisons pour lesquelles les initiatives d'IA échouent. La fragmentation des données, une gouvernance déficiente et un manque de communication entre la direction et les équipes opérationnelles aggravent souvent le problème. Les chiffres le confirment. Le rapport 'State of AI in Business 2025' du MIT estime qu'environ 95% des projets pilotes d'IA générative n'ont pas d'impact métier mesurable.

L'adoption de l'IA est un processus complexe et chaotique, bien plus que certaines estimations ne le laissent entendre. Les dirigeants doivent donc être capables de déceler les dérives d'une initiative d'IA et d'évaluer l'opportunité de la corriger. Avec une stratégie adaptée, une expérience difficile peut malgré tout se transformer en projet bénéfique pour l'entreprise. « L'IA ne doit pas reposer uniquement sur un optimisme [envers la technologie] », affirme Scott Likens, directeur de l'ingénierie IA chez PwC aux États-Unis et à l'international. « Elle a besoin de résultats observables et reproductibles, liés à la valeur ajoutée créée pour l'entreprise » , ajoute-t-il

Déceler les premiers signes d'un échec

Les premiers signes de difficultés à venir dans les initiatives d'IA apparaissent souvent très tôt. Un exemple courant : un projet semble progresser, mais sa mise en service est sans cesse repoussée. « "Encore quelques semaines" devient "Il faut régler l'intégration", puis "On attend un audit de sécurité", illustre Brandon Sammut. Chaque retard semble justifié pris individuellement, mais mis bout à bout, ils révèlent une tendance. »

Un autre signe qu'un projet est en train de dérailler réside dans le fossé qui se crée entre les dirigeants et les praticiens. Les cadres ont souvent l'impression d'avoir une vision claire du projet, tandis que les ingénieurs et les opérateurs chargés de sa réalisation affirment que la plupart des frictions quotidiennes qu'ils rencontrent restent invisibles. À un moment donné, Brandon Sammut pensait que les projets étaient sur la bonne voie, car il entendait parler d'étapes clés et de dates de lancement. Mais un examen plus approfondi a révélé que les équipes étaient bloquées par des retards d'intégration et des problèmes de conformité aux politiques internes - des problèmes rarement évoqués lors des réunions avec la direction.

PublicitéRester en phase avec la vision métiers

Dans d'autres cas, les projets échouent car ils n'ont jamais été considérés comme prioritaires par la direction. C'est ce qui est arrivé à Eli Vovsha, responsable Data Science chez Fortra, fournisseur de logiciels de cybersécurité. Vers 2022, avec un collègue, il a entrepris de transformer un prototype développé lors d'un hackathon en un système prêt pour la production, basé sur l'apprentissage par renforcement. Eli Vovsha et son collègue ont livré une preuve de concept, mais à partir de là, le projet s'est enlisé. « Après divers retards, le projet a tout simplement été abandonné », explique-t-il. Avec le recul, il estime que l'initiative a échoué car la direction ne l'a jamais considérée comme une véritable priorité. « Ce manque d'intérêt sincère a contraint notre collègue ingénieur à reporter sans cesse son travail, car il était accaparé par des tâches plus urgentes », explique-t-il.

Rétrospectivement, il ne remet pas en question les décisions techniques qu'il a prises. La leçon qu'il en tire est davantage d'ordre tactique. « En tant que chef de projet, je veillerais désormais scrupuleusement à ce que l'initiative soit en phase avec la vision et les feuilles de route des chefs de produit concernés, et qu'un mécanisme soit prévu pour garantir le support des équipes d'ingénierie », analyse-t-il. Scott Likens (PwC) constate que de nombreuses initiatives d'IA perdent de leur élan lorsqu'elles s'éloignent d'objectifs business clairs. En matière d'IA, selon lui, la flexibilité est clef : se recentrer sur des problèmes métiers spécifiques, étayés par des données et une gouvernance plus robustes, permet aux équipes d'avancer plus vite et d'obtenir des résultats plus pérennes.

Mais tous les signes avant-coureurs ne sont pas faciles à repérer. Certains sont subtils : le projet disparaît des agendas, on n'en parle plus, et les mises à jour deviennent vagues. L'enthousiasme initial laisse place à un silence poli. C'est pourquoi les dirigeants doivent prêter attention aux non-dits. Et rester à l'écoute des utilisateurs si le projet est déjà déployé. « Le principal signe à surveiller est l'absence de retours positifs des utilisateurs », selon Sean Goedecke, ingénieur logiciel australien qui écrit sur l'IA et la dynamique des grandes entreprises sur son site web. « Les produits d'IA les plus performants ont immédiatement séduit les utilisateurs », ajoute-t-il. Selon lui, les échecs de projets sont souvent dus au désir d'utiliser urgemment l'IA pour faire quelque chose, plutôt que par la résolution d'un problème concret pour les utilisateurs.

Responsabiliser les initiatives en échec

Même après de premiers dérapages, certains projets d'IA peuvent toutefois être sauvés. Au prix d'un changement de mentalité. Ces initiatives ne doivent pas être considérées comme de simples expériences techniques. Les dirigeants doivent plutôt se concentrer sur la valeur ajoutée réelle que ces travaux apporteront à l'entreprise. Cela implique d'intégrer ces projets aux processus métier existants, d'y associer des responsabilités claires et de définir des résultats mesurables à atteindre. « La première étape consiste à passer des indicateurs de performance du modèle aux indicateurs de performance sur les processus, affirme Scott Likens. Il faut se demander si les résultats métiers s'améliorent, et non si le modèle est précis. »

Pour espérer sauver un projet d'IA en échec, les organisations doivent avoir une vision claire de la situation réelle, et non se fonder sur ce que la direction imagine. Il est ensuite essentiel d'identifier les lacunes en matière d'orchestration et les véritables freins à la progression du projet. « Nous avons cessé d'analyser les performances du modèle isolément et avons examiné le workflow dans son ensemble », explique Brandon Sammut (Zapier). Cela impliquait de se demander où se situaient les ruptures de processus impliquant une intervention humaine, où les résultats étaient copiés d'un système à un autre et où le processus se rompait entre les résultats produits par l'IA et les besoins des équipes.

Miser sur des bases reproductibles

Une fois ces questions résolues, les entreprises peuvent enfin prendre des mesures concrètes. Brandon Sammut et ses collègues suggèrent d'attribuer clairement les responsabilités. « Quelqu'un doit être responsable des résultats de la production, et pas seulement de l'expérimentation », précise-t-il. Des investissements supplémentaires ont été réalisés dans la planification de l'intégration en amont, incitant les équipes à poser des questions pertinentes sur les systèmes, les flux de données et les dépendances au sein des workflows avant l'approche des échéances. Zapier a encore intégré la gouvernance au processus dès le départ, évitant ainsi que les audits de conformité et de sécurité ne fassent surgir tardivement des obstacles imprévus. De plus, les équipes ont standardisé leurs outils afin de travailler sur les mêmes plateformes. Enfin, l'entreprise a priorisé la formation pour aider les employés à maîtriser la nouvelle technologie et à adapter leurs flux de travail.

« Lorsque les équipes partagent des fondations communes et une méthode d'apprentissage, chaque nouvelle initiative s'appuie sur la précédente au lieu de repartir de zéro », souligne Brandon Sammut. C'est ainsi que l'expérimentation se transforme en compétence reproductible. » Il insiste également sur le fait que les organisations doivent utiliser un framework reposant sur trois piliers pour développer leurs projets d'IA : chaque initiative doit apporter des améliorations mesurables en termes d'efficacité, de qualité et d'expérience employé. « L'efficacité seule entraîne des suppressions d'emplois, des craintes et des résistances, souligne le DRH et directeur de la transformation IA de Zapier. La qualité seule ne justifie pas l'investissement, et si les personnes qui effectuent le travail détestent le nouveau processus, il ne sera tout simplement pas adopté. »

Selon lui, appliquer cette grille d'analyse plus tôt, ajoute-t-il, aurait permis à son équipe d'abandonner plus rapidement les projets les moins prometteurs et de concentrer ses efforts et ses investissements sur ceux qui se sont révélés réellement efficaces.

Quand faut-il jeter l'éponge ?

Il arrive que des organisations maintiennent en vie des projets problématiques bien après que leurs perspectives se sont amenuisées. Mettre fin à une initiative d'IA peut être difficile, surtout après des mois de travail et des déclarations publiques de soutien. Pourtant, les dirigeants expérimentés affirment que savoir arrêter un projet mal embarqué est indispensable. Cet abandon libère du temps, de l'argent et des compétences pour des idées à forte valeur ajoutée.

Cette rigueur est d'autant plus importante dans le domaine de l'IA, où la technologie évolue à une vitesse fulgurante. « Les organisations devraient être particulièrement disposées à abandonner leurs initiatives d'IA, explique Sean Goedecke. Le paysage change si vite que des projets auparavant impossibles à mener deviennent envisageables mois après mois. Une initiative d'IA vieille de 12 mois devrait donc probablement être réexaminée, ne serait-ce que du fait de son ancienneté. » Brandon Sammut constate le même phénomène. Les équipes s'accrochent à des projets pilotes d'IA par souci d'économie, continuant d'investir du temps et des efforts simplement parce que les dépenses engagées sont déjà considérables et que personne ne veut admettre la perspective d'un échec. « C'est un piège, assure-t-il. Il est préférable de réorienter cette énergie et ce budget vers une opportunité à plus fort impact plutôt que de continuer à investir des ressources dans un projet qui ne donnera aucun résultat. »

Le DRH de Zapier recommande d'abandonner les initiatives qui s'avèrent moins efficaces que prévu, ou lorsque ses coûts dépassent la valeur ajoutée potentielle, même dans le cas le plus favorable. « Si un projet pilote est presque prêt pour la production depuis plus de deux cycles de développement sans qu'un obstacle précis et clair n'ait été résolu, il est probablement temps d'avoir une discussion franche sur l'opportunité de le repenser ou de l'arrêter », explique Brandon Sammut. Cependant, arrêter un projet ne signifie pas forcément perdre tout le travail accompli. Parfois, affecter l'équipe à une autre initiative peut accélérer les progrès au lieu de les freiner. « La leçon principale à retenir est que la rapidité d'apprentissage est plus importante que n'importe quelle initiative prise individuellement, affirme-t-il. Si l'arrêt d'une initiative permet à votre équipe d'apprendre plus vite sur une initiative plus prometteuse, ce n'est pas un échec, mais plutôt une preuve de leadership. »

Absorber la phase de doutes

Les initiatives en IA suscitent d'énormes attentes. Ces projets sont lancés avec des promesses audacieuses, des échéanciers ambitieux et l'espoir d'une transformation rapide. « Lorsqu'ils n'atteignent pas ces objectifs, cela peut être perçu comme un revers public, surtout compte tenu de la visibilité importante de l'IA », explique Scott Likens. Souvent, lorsque ces projets échouent, la pression peut être ressentie comme profondément personnelle. « On est vraiment saisis par le doute, confie Brandon Sammut. On se demande si on a trop poussé les équipes, ou pas assez. On se demande si les gens ne perdent pas confiance dans la stratégie globale en matière d'IA à cause d'une initiative qui a piétiné. »

Les équipes qui développent ces projets d'IA ressentent aussi ce doute. Les ingénieurs et les chefs de produit peuvent devenir plus prudents et moins enclins à prendre des risques ou à proposer des idées audacieuses. Avec le temps, cette hésitation peut freiner l'innovation, bien plus que le simple échec d'un projet. « Il existe un risque réel que les gens intègrent l'idée que toute expérimentation est risquée ou que l'IA est surmédiatisée, reconnait Brandon Sammut. Ces deux conclusions sont erronées, mais ce sont des réactions naturelles lorsque les choses ne se passent pas comme prévu. »

Privilégier la transparence s'avère alors essentiel. « Quand quelque chose ne fonctionne pas, nous en discutons en considérant l'expérience comme un apport, et non comme un jugement de culpabilité », explique Brandon Sammut. Dans un domaine aussi évolutif que l'IA, cette transparence peut même constituer un avantage concurrentiel, selon lui : « nous croyons à l'apprentissage et au partage des connaissances et des expériences, que celles-ci soient abouties ou non. »

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis