Workslop IA : ce tueur de productivité que seule la formation peut arrêter
Déployer l'IA sans programme de formation des employés conduit de nombreuses organisations à un piège qui génère en réalité des pertes de productivité. La cause ? Le workslop, ce travail bâclé avec l'IA qui entraîne des effets en cascade.
PublicitéL'IA offre aux employés la promesse d'une efficacité et d'une productivité accrues, les libérant des tâches répétitives pour s'attaquer à des tâches plus complexes. Mais à mesure que les entreprises déploient les outils d'IA auprès de leurs employés, nombre d'entre elles sont confrontées à un nouveau défi : le travail généré par l'IA, qui produit l'effet inverse de celui escompté.
La qualité du contenu généré par l'IA dépend en grande partie des compétences de la personne qui collabore avec l'outil, et tous ne possèdent pas les prérequis dans ce domaine. C'est ce qui a donné naissance à ce que les Stanford Social Media Lab et Betterup Labs ont appelé le « workslop » de l'IA, qu'ils définissent comme « un contenu généré par l'IA qui se présente comme un travail de qualité, mais qui manque de substance pour faire progresser significativement une tâche donnée ».
« Le workslop de l'IA se produit lorsque les organisations utilisent la mauvaise IA au mauvais moment, déployant de grands modèles de langage conçus pour la créativité et le raisonnement dans des situations exigeant précision, gouvernance et fiabilité, explique Don Schuerman, CTO de l'éditeur Pegasystems. Il en résulte des résultats qui semblent impeccables en surface, mais qui s'effondrent sous l'effet d'un examen minutieux : des recommandations incohérentes ou médiocres, des hallucinations ou des actions qui ne sont pas conformes aux politiques ou aux règles s'appliquant à une organisation. »
Comment le workslop se produit-il ?
Selon une étude du Stanford Social Media Lab et des Betterup Labs publié dans la Harvard Business Review, 40% des 1150 employés américains interrogés ont déclaré avoir reçu un workslop de la part d'un collègue au cours du mois précédent, ce qui représente environ 16% du contenu reçu au travail. Ces contenus de mauvaise qualité sont généralement transmis entre collègues (40%) ; cependant, les employés signalent également des cas de workslop envoyés à des managers par leurs subordonnés directs (18%) et inversement (16%). Si le phénomène est présent dans tous les secteurs, il est plus fréquent dans les services professionnels et les technologies, selon les résultats de l'étude.
Erik Roth, fondateur de Lilli, la plateforme d'IA générative de McKinsey, explique qu'un exemple typique de workslop se produit lorsque « les employés reprennent presque mot pour mot les résultats de grands modèles de langage » et les font passer pour le contenu final. Ce type de contenu d'IA est généralement de qualité encore plus médiocre, car les employés qui adoptent cette approche ne maîtrisent souvent pas la rédaction de prompts, ne savent pas repérer les hallucinations ou les fausses informations, et ne prennent pas le temps de s'assurer que les résultats générés par l'IA répondent aux standards requis par les échanges entre humains.
PublicitéLes workslop d'IA sont en fin de compte « un contenu pauvre en contexte, faible en jugement spécialisé et livré avec peu de valeur ajoutée humaine. C'est l'illusion de la productivité sans réelle création de valeur », explique Erik Roth. Paul Farnsworth, président du site de recherche d'emploi Dice, affirme avoir vu du contenu d'IA qui, à première vue, « paraît soigné », mais « s'effondre à la deuxième lecture ». Qu'il s'agisse de calculs, de données, de logique erronés ou de contenu « qui ne dit rien de significatif », sa principale mise en garde est qu'une « dépendance excessive à l'IA peut créer un faux sentiment d'efficacité ». Cela donne l'illusion de travailler plus vite, alors qu'en réalité, « on passe plus de temps à revoir et à clarifier le contenu ultérieurement », explique-t-il.
Travail supplémentaire et érosion de la confiance
Car un contenu de mauvaise qualité généré par IA et transmis aux collègues engendre souvent davantage de travail pour ceux qui le reçoivent. Selon Stanford Social Media Lab et Betterup Labs, le surcroit de travail engendré par chaque workslop représente en moyenne près de deux heures de travail supplémentaire pour les employés qui le reçoivent, car ils sont obligés d'analyser le contenu pour corriger les erreurs, identifier les fausses informations et, parfois, de le réécrire entièrement. Cet effort engendre une « taxe invisible » estimée à 186 dollars par mois et par employé, par les analystes. Soit, pour une organisation de 10 000 employés avec un taux de prévalence de 41% de workslop, une perte de productivité de près de 9 millions de dollars par an.
Le recours au workslop crée également des tensions entre collègues. Interrogés sur leur ressenti face à ce type de contenu, les employés se sont montrés agacés (53%), confus (38%) et offensés (22%). L'étude révèle également que les employés perçoivent leurs collègues utilisateurs d'IA comme « moins créatifs, compétents et fiables » qu'auparavant, tandis que 42% d'entre eux les considèrent comme « moins dignes de confiance » et 37% comme « moins intelligents ».
Ces workslop incitent également les employés à tourner vers leur hiérarchie : 34% déclarent avoir signalé ce type d'abus à leurs collègues ou à leurs responsables, et 32% se disent moins enclins à collaborer après en avoir été victimes. « Une IA mal gérée ne ralentit pas seulement le travail, elle érode la confiance. Lorsque les employés corrigent ou vérifient constamment les résultats générés par l'IA, cela engendre fatigue et scepticisme. Au lieu de devenir un partenaire de productivité, l'IA devient un élément de plus sur la liste des tâches à accomplir, générant plus de travail au lieu de le réduire », explique Don Schuerman de Pegasystems.
Gérer et éviter le workslop
Les premières lignes de défense contre ce phénomène sont la formation et la gouvernance, reprend le CTO de l'éditeur, qui conseille aux responsables informatiques de d'amener le culture IA parmi les employés par la formation et l'expérimentation, de les encourager à remettre systématiquement en question les résultats de l'IA et à comprendre comment la technologie génère des réponses. Les DSI doivent également mettre en place des garde-fous et s'assurer que les employés ont accès aux bons outils pour les bonnes tâches, ajoute-t-il. « Lorsque les systèmes d'IA sont intégrés à des flux de travail structurés, avec visibilité, boucles de rétroaction et pistes d'audit, les employés n'ont pas à deviner ce qui est 'bon'. Ils le voient modélisé dans chaque tâche. »
Paul Farnsworth de Dice plaide également en faveur d'un accompagnement et d'une gouvernance. « Les organisations doivent garder à l'esprit que l'IA n'est efficace que si l'humain est au volant. Sans accompagnement et gouvernance, les outils d'IA peuvent rapidement devenir un handicap plutôt qu'un atout, explique-t-il. L'essentiel est d'utiliser l'IA avec intention : savoir ce qu'on lui demande et être prêt à intervenir si nécessaire. »
L'adoption de l'IA ne serait pas immédiate pour tout le monde. Il n'en reste pas moins important que les responsables informatiques accompagnent activement tous les employés dans l'usage de cette technologie, en leur montrant des exemples de contenus performants et peu performants afin qu'ils puissent apprendre et comprendre. « Former les employés à utiliser efficacement l'IA générative commence par la démystifier », ajoute Paul Farnsworth.
À mesure que les employés se familiariseront avec l'IA et en maîtriseront les rouages, la charge de travail diminuera progressivement, veulent croire nos interlocuteurs. « En fin de compte, la qualité de l'IA n'est pas seulement une question technique ; c'est une question culturelle, souligne Don Schuerman de Pegasystems. Les organisations qui investissent dans une IA prévisible et gouvernée obtiennent non seulement de meilleurs résultats, mais elles construisent également des équipes qui font confiance à ces systèmes et les exploitent de manière responsable. »
Article rédigé par
Sarah White, CIO US (adapté par Reynald Fléchaux)
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire