Stratégie

Avant de penser IA, pensez data

Avant de penser IA, pensez data
L’emphase mise sur l’IA remet en pleine lumière les enjeux liés à la donnée et à sa gouvernance. Un travail d’ampleur dans la plupart des organisations. (Photo : Claudio Schwarz / Unsplash)

Depuis des mois, les DSI mettent en garde contre le risque de laisser l'IA dicter la stratégie d'entreprise. Une adoption réussie repose sur des besoins clairement définis, des données fiables et le jugement humain, et non sur une technologie laissée en roue libre.

PublicitéEn matière d'adoption de l'IA, le fossé entre ambition et mise en oeuvre peut être insurmontable. Les entreprises tentent d'intégrer cette technologie à leurs produits, processus et stratégies, mais les bonnes intentions se heurtent souvent aux réalités quotidiennes liées à des données désorganisées et à l'absence de plan précis. « C'est le défi que nous rencontrons le plus souvent chez les entreprises internationales avec lesquelles nous travaillons, explique Rob McAveney, directeur technique de l'éditeur de logiciels Aras. Nombre d'organisations partent du principe qu'elles ont besoin de l'IA, alors que le véritable point de départ devrait être de définir la décision que l'IA doit accompagner et de s'assurer de disposer des données pertinentes. »

Près des deux tiers des dirigeants affirment que leur organisation a des difficultés à déployer l'IA à grande échelle, selon une récente étude du cabinet McKinsey. Souvent, les entreprises ne parviennent pas à dépasser le stade des projets pilotes, un défi encore plus marqué pour les petites structures. Fréquemment, ces projets pilotes n'aboutissent pas et les décisions d'investissement deviennent plus difficiles à justifier. Un problème courant : les données ne sont tout simplement pas prêtes pour l'IA. Les équipes tentent de construire des modèles sophistiqués à partir de sources fragmentées ou de données désordonnées, espérant que la technologie comblera les lacunes.

« Selon nous, les principaux obstacles à des résultats significatifs en matière d'IA sont la qualité des données, leur cohérence et le contexte qui les entoure, souligne Rob McAveney. Lorsque les données sont cloisonnées ou ne sont pas régies par des normes partagées, l'IA ne fera que refléter ces incohérences, ce qui conduira à des résultats peu fiables, voire trompeurs. » Ce problème touche presque tous les secteurs. Avant d'investir massivement dans de nouveaux outils d'IA, les organisations doivent d'abord renforcer leur gouvernance des données, appliquer des normes de qualité strictes et clarifier qui est réellement propriétaire des données destinées à alimenter ces systèmes.

Distinguer usages pertinents et effets de mode

Dans leur empressement à adopter l'IA, de nombreuses organisations oublient de se poser la question fondamentale : quel problème faut-il réellement résoudre ? Sans cette clarté, difficile d'obtenir des résultats significatifs. Anurag Sharma, directeur technique de VyStar Credit Union, un organisme de crédit coopératif basé en Floride, considère l'IA comme un outil parmi d'autres, disponible pour résoudre un problème donné. Selon lui, chaque initiative doit débuter par un énoncé clair et simple du résultat escompté. Il encourage son équipe à identifier les problèmes que l'IA pourrait résoudre et exhorte les dirigeants à bien comprendre les changements à venir et les personnes concernées avant toute décision. « Les DSI et les directeurs techniques peuvent garantir la pertinence des initiatives en insistant sur cette rigueur et en prenant le temps de distinguer les idées séduisantes des enjeux stratégiques », explique-t-il.

PublicitéCette distinction est grandement facilitée lorsqu'une organisation dispose d'un centre d'excellence en IA ou d'un groupe de travail dédié à l'identification des véritables opportunités. Ces équipes contribuent à trier les idées, à définir les priorités et à garantir que les initiatives répondent à des besoins métiers concrets et non sur des effets de mode. Ce groupe de travail devrait également inclure les personnes dont le travail sera impacté par l'IA, ainsi que les dirigeants, juristes, spécialistes de la conformité et équipes de cybersécurité. Ensemble, ils peuvent définir les exigences minimales auxquelles les initiatives d'IA doivent se conformer.

Définir les KPI de succès avant le lancement

« Lorsque ces exigences sont clairement définies dès le départ, les équipes peuvent éviter de se lancer dans des projets d'IA qui paraissent prometteurs mais qui manquent de véritable fondement métier », explique Kayla Underkoffler, directrice de la sécurité et de la promotion des politiques d'IA chez Zenity, plateforme de sécurité et de gouvernance. Elle ajoute qu'une personne au sein du centre d'excellence en IA (COE) devrait avoir une solide compréhension du paysage actuel des risques liés à cette technologie. « Un plan peut comporter des failles importantes dont l'équipe n'a même pas conscience, souligne-t-elle. Il est essentiel que la sécurité soit intégrée dès le début afin de garantir que les garde-fous et l'évaluation des risques soient mis en place dès le départ et non ajoutés a posteriori. »

De plus, des résultats métiers clairs et mesurables doivent être définis afin de garantir la pertinence des efforts déployés. « Chaque proposition d'initiative doit définir des indicateurs de succès associés dès le départ, affirme Akash Agrawal, vice-président DevOps et DevSecOps chez LambdaTest, plateforme d'ingénierie qualité basée sur le cloud. « L'IA n'est jamais explorée, elle doit être appliquée », dit-il. Il recommande aux entreprises d'intégrer des points de contrôle réguliers à 30 ou 45 jours pour s'assurer que le travail reste aligné sur les objectifs de départ. Et si les résultats ne sont pas à la hauteur des attentes, les organisations ne doivent pas hésiter à réévaluer la situation. Quitte à abandonner complètement le projet, ajoute-t-il.

Cependant, même lorsque la technologie semble prometteuse, l'intervention humaine reste indispensable. « Lors d'un projet pilote de qualification des prospects basé sur l'IA, l'absence de validation humaine a entraîné une catégorisation inefficace de ceux-ci, illustre Shridhar Karale, DSI de Reworld, entreprise spécialisée dans les solutions de gestion durable des déchets. Nous avons rapidement réajusté le modèle pour inclure les retours humains, ce qui lui permet de s'affiner et de gagner en précision au fil du temps. » Lorsque des décisions sont prises sans validation humaine, les organisations risquent d'agir sur la base d'hypothèses erronées ou de schémas mal interprétés.

Une data fiable : avant tout de la rigueur

Garantir une gestion efficace des données est une condition préalable, mais souvent négligée, du bon fonctionnement de l'IA. Créer les conditions optimales implique de considérer les données comme un atout stratégique : les organiser, les nettoyer et mettre en place les politiques appropriées pour assurer leur fiabilité dans le temps. « Les DSI devraient se concentrer sur la qualité, l'intégrité et la pertinence des données », affirme Paul Smith, DSI d'Amnesty International. Son organisation travaille quotidiennement avec des données non structurées, provenant souvent de sources externes. Compte tenu de la nature de leur travail, la qualité de ces données peut être variable. Les analystes examinent des documents, des vidéos, des images et des rapports, chacun produit dans des formats et des conditions différents. La gestion d'un tel volume d'informations peu ordonnées, incohérentes et souvent incomplètes leur a appris l'importance de la rigueur.

« Les données non structurées n'existent pas, il n'y a que des données qui n'ont pas encore été structurées », tranche ainsi Paul Smith. Il encourage également les organisations à adopter des pratiques de gouvernance de données rigoureuses et quotidiennes. Cela implique de vérifier la pertinence des données, de s'assurer de leur exhaustivité, de leur exactitude et de leur cohérence, car des informations obsolètes peuvent fausser les résultats. Le DSI souligne également l'importance de vérifier la traçabilité des données. Cela comprend l'établissement de leur provenance - savoir d'où viennent les données et si leur utilisation est conforme aux normes légales et éthiques - et l'examen de toute documentation disponible détaillant leur collecte ou leur transformation.

Prendre son temps

Dans de nombreuses organisations, les données désorganisées proviennent de systèmes Legacy ou de workflows à base de saisie manuelle. « Nous renforçons la fiabilité en standardisant les schémas, en appliquant des contrats sur les données, en automatisant les contrôles qualité à l'ingestion et en consolidant l'observabilité au niveau de l'ingénierie », explique Akash Agrawal.

Lorsque les équipes ont confiance dans les données manipulées, les performances de l'IA s'améliorent. « Si vous ne pouvez pas répondre clairement à la question de la provenance des données et de leur fiabilité, vous n'êtes pas prêt, ajoute Anurag Sharma (VyStar Credit Union). Mieux vaut prendre son temps dès le départ que de courir après des idées erronées ou nuisibles aux opérations, surtout dans le secteur financier où la confiance est primordiale. »

Shridhar Karale explique que Reworld a créé une plateforme de données unique et fiable, et désigné des responsables data pour chaque domaine. La société maintient également un dictionnaire de données évolutif qui facilite la recherche de définitions et de politiques d'accès. « Chaque entrée comprend des informations sur la provenance et la propriété des données, ce qui permet à chaque équipe de savoir qui est responsable et de faire confiance aux données qu'elle utilise », résume le DSI.

Un miroir tendu aux pratiques organisationnelles

L'IA a tendance à amplifier les tendances qu'elle détecte dans les données - les plus utiles, mais aussi les biais anciens que les organisations préféreraient abandonner. Pour éviter cet écueil, les organisations doivent reconnaître que les biais sont souvent d'ordre structurel.

Les DSI peuvent prendre plusieurs mesures pour prévenir l'apparition de problèmes. « Vérifiez scrupuleusement toutes les données utilisées pour les phases d'entraînement ou les tests et assurez-vous que les contrôles essentiels sont en place avant l'intégration de l'IA dans les processus », conseille Kayla Underkoffler (Zenity). Mieux vaut également bien comprendre comment l'IA modifie le modèle de risque. « Ces systèmes introduisent de nouvelles formes d'autonomie, de dépendance et d'interaction, explique-t-elle. Les contrôles doivent évoluer en conséquence. »

Kayla Underkoffler ajoute que des cadres de gouvernance robustes peuvent guider les organisations dans la surveillance, la gestion des risques et la mise en place de garde-fous. Ces cadres définissent les responsabilités en matière de supervision des systèmes d'IA, la documentation des décisions et les situations où l'intervention humaine est nécessaire, offrant ainsi un cadre structuré dans un environnement où la technologie évolue plus vite que la plupart des politiques d'entreprise.

Identifier les biais des IA

Shridhar Karale (Reworld) affirme que les indicateurs d'équité jouent un rôle important dans cette phase de contrôle. Ces mesures aident les équipes à déterminer si un système d'IA traite les différents groupes équitablement ou s'il en favorise involontairement un par rapport à un autre. Ces indicateurs pourraient, par exemple, être intégrés au processus de validation des modèles.

Les experts du domaine peuvent également jouer un rôle clé dans le repérage et le réentraînement des modèles produisant des résultats biaisés ou hors cible. Ils comprennent le contexte des données et sont donc souvent les premiers à remarquer une anomalie. « L'apprentissage continu est tout aussi important pour les machines que pour les humains », dit Shridhar Karale. Paul Smith, d'Amnesty International, abonde. Selon lui, les organisations devraient former leur personnel en continu afin de les aider à identifier les biais potentiels. « Sensibiliser aux risques et aux préjudices, dit-il. La première ligne de défense, ou de gestion des risques, c'est l'humain. »

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis