Stratégie

GenAI : les DSI tentent de garder le contrôle... pour ne pas payer les pots cassés

GenAI : les DSI tentent de garder le contrôle... pour ne pas payer les pots cassés
La Shadow IA est un des risques les plus immédiats auxquels sont confrontés les DSI. Selon une étude, environ un utilisateur sur deux continue à utiliser des accès personnels à la GenAI pour ses usages professionnels. (Photo : Viralyft/Unsplash)

L'engouement pour la GenIA ressemble à la ruée vers l'or. Métiers comme directions générales poussent à la roue. Dans ce contexte, les DSI se doivent de calmer les ardeurs pour éviter ou, a minima, contrôler les nombreux risques inhérents à cette technologie.

Publicité« Aujourd'hui, il n'est pas possible d'éviter le sujet de l'IA générative », constate Lionel Chaine, DSI Bpifrance. A la Maif, « quand cette technologie a émergé, le sujet a été porté au niveau de la direction générale », renchérit Nicolas Siegler, DGA adjoint et DSI de l'assureur. Un engouement bien sûr dopé par les fournisseurs qui s'assurent ainsi des gains substantiels même si, sur le terrain, peu d'entreprises constatent un retour sur investissement quantifiable. Une étude menée par le MIT (The GenAI Divide: State of AI in Business 2025) estime que 95% des entreprises ne constatent aucun retour mesurable de leurs investissements en IA générative. « Pour les cas d'usage pertinents, les bénéfices émergent seulement après la mise à l'échelle », souligne Lionel Chaine.

Mais même cette absence de visibilité n'empêche pas la quasi-totalité des directions dans les entreprises, administrations ou collectivités de tester massivement cette technologie. Une autre raison explique un tel emballement, à savoir la banalisation de l'utilisation de ChatGPT et autres LLM par les particuliers. « Même quand une entreprise interdit le Shadow AI, des salariés sont tentés de le contourner en passant par leur smartphone ou un abonnement personnel », observe Damien Peries, DSI de Crosscall, un fabricant de smartphones tout-terrain. Les responsables IT se doivent donc de suivre le mouvement en contrôlant au mieux les risques liés aux usages de cette technologie. Une démarche d'autant plus nécessaire qu'ils pourraient être considérés comme responsables des déboires liés à l'IA générative. Et ceux-ci se déclinent sur de nombreux points, de la réglementation aux hallucinations en passant par l'exposition de données sensibles, les impacts RH, environnementaux ou encore les dérapages budgétaires. Le Cigref a publié récemment plusieurs guides sur le sujet, dont un dédié à la mise en oeuvre pratique de l'AI Act européen.


« Sur 200 cas d'usage proposés par les métiers, environ 20 ont été mis en production pour le moment », dit Lionel Chaine, DSI Bpifrance. (Photo : D.R.)

Sur le terrain, les DSI jonglent donc pour prendre en compte et pondérer tous ces facteurs en fonction de leur organisation. Une constante, cette démarche passe ou devrait passer par la mise en place d'une vraie gouvernance et ce, à l'échelle de l'organisation. « C'est la bonne approche pour bénéficier des apports de cette technologie en maîtrisant au mieux les risques induits, confirme Nicolas Siegler, DGA et DSI de la Maif. Dans ce but, nous avons créé un conseil de surveillance 'Numérique éthique' interne pour évaluer les impacts RH, environnementaux et éthiques, liés à ces nouveaux usages ».

PublicitéA la recherche du ROI de l'IA

La gouvernance commence par une étape qui n'a rien de spécifique à l'IA, à savoir une évaluation de l'apport de cette technologie. Celle-ci reste complexe parce qu'elle dépend du type de cas d'usage, intégré dans un processus métier ou plus générique. Dans le premier cas de figure, le retour sur investissement reste relativement simple à évaluer, même si la décision finale de mise en production dépend également d'autres facteurs. Chez Bpifrance, « sur 200 cas d'usage proposés par les métiers, environ 20 ont été mis en production pour le moment », illustre Lionel Chaine. Pour le deuxième cas, qualifié d'IA horizontale dans le rapport du Cigref, qui couvre des tâches comme la génération d'un compte rendu de réunion, le résumé d'un dossier, la réponse à des questions techniques, plusieurs études citées par le rapport estiment à 50 mn le gain de temps quotidien par utilisateur.

Mais, en fonction des organisations, le retour sur investissement n'est pas seulement financier. A Lorient, un chatbot allège les tâches des agents d'accueil de l'agglomération sans qu'il soit question de gagner du temps, mais plutôt de soulager la charge de travail de ces agents. Problème, dans ses versions ouvertes à tous (ChatGPT...), cette IA horizontale est aussi utilisée par une part des salariés dans un contexte très métier. Des pratiques qui font courir des risques à leurs organisations et imposent, pour les DSI, de supprimer ou à minima de contrôler cette Shadow IA.

Sensibiliser aux risques plutôt qu'interdire

Beaucoup d'organisations ont opté pour une sensibilisation de leurs collaborateurs. Démarche d'autant plus nécessaire que prendre des solutions payantes, comme Copilot pour l'ensemble des salariés est irréaliste, soulignent Crosscall et la Maif, entre autres. Chez Crosscall, « tout ce qui n'est pas listé aux collaborateurs comme autorisé est interdit, insiste Damien Peries. Le but n'est pas d'empêcher toute requête, les flux ne sont pas bloqués, mais de responsabiliser les utilisateurs par des actions différentes de sensibilisation. » D'autres organisations vont plus loin dans l'accompagnement de leurs salariés.


« Nous privilégions la sensibilisation et la pédagogie. Une note a été diffusée à l'ensemble des agents pour les informer des opportunités et des risques », souligne Alain Cottencin, DSI de l'agglomération de Lorient. (Photo : D.R.)

La Maif autorise l'utilisation de Copilot web sur Azure, une version gratuite de Copilot, pour tous ses collaborateurs, « ce qui sécurise ces usages », précise Nicolas Siegler. Si l'accès à d'autres LLM n'est pas techniquement bloqué, tous les flux sont monitorés et les utilisateurs sensibilisés aux risques associés. L'assureur a mis en place une cellule d'assistance aux prompts. « Bpifrance a également mis en place une charte d'utilisation », décrit Lionel Chaine. DSI de l'agglomération de Lorient, Alain Cottencin a choisi la même approche non coercitive : « nous privilégeons la sensibilisation et la pédagogie. Une note a été diffusée à l'ensemble des agents pour les informer des opportunités et des risques liés à ces usages. Une démarche qui concerne également les directions ». Chez Crosscall, « le management l'utilise surtout pour générer des comptes-rendus de réunion ou chercher des informations dans ces documents, détaille Damien Peries. La sensibilisation leur a permis de prendre conscience des risques à exposer des informations sensibles, une simple proposition commerciale, par exemple. » En d'autres mots, à ne pas utiliser ChatGPT dans un contexte professionnel. Si l'acculturation n'en est qu'à ses débuts, la Shadow IA la plus difficile à éviter vient de certains éditeurs « imposant l'IA générative dans les montées de versions », signale Nicolas Siegler.

Surveiller les hallucinations

Outre l'exposition des données sensibles, cet accompagnement a également pour but de faire prendre conscience que cette technologie est loin d'être parfaite et génère des hallucinations. « Il est indispensable que l'utilisateur garde un regard critique », résume un DSI du secteur de la santé. Et se reposer sur ce seul filtre n'est pas suffisant. Le Cigref préconise de mettre en place une organisation ad hoc. Concrètement, il s'agit de définir une matrice définissant les rôles et responsabilités en interne sur les cas d'usage critiques.


« Pour 'surveiller' le chatbot chargé de répondre à des questions sur la prise en charge des incidents dans les contrats, une équipe dédiée de deux postes a été créée », note Nicolas Stiegler, DGA adjoint et DSI de Maif. (Photo : Mélanie Chaigneau/MAIF)

Chez Bpifrance, le recours aux LLM repose sur des agents IA classés en trois catégories. Les premiers crawlent le web, mais ne peuvent accéder aux données internes. Le second niveau autorise un accès hybride, mais limité aux données internes non critiques. Tandis que le troisième se focalise sur les seules données internes. « Pour limiter les risques d'exposition de données et plus globalement les risques cyber, nous nous interdisons d'utiliser de la GenAI pour les cas d'usage critiques. Comme par exemple, celui chargé de l'octroi de prêts, qui fonctionne actuellement à partir de règles et de machine learning. Il est possible que nous utilisions la GenIA pour ces cas à l'avenir si des solutions robustes permettent de pallier les risques », décrit Lionel Chaine.

Côté Maif, un dispositif baptisé Maintien en Conditions Intelligentes a été mis en place pour vérifier les éventuels dérapages. Il prend différentes formes selon les cas d'usage. « Pour 'surveiller' le chatbot chargé de répondre à des questions sur la prise en charge des incidents dans les contrats, une équipe dédiée de deux postes a été créée. Pour un autre chatbot, encore en expérimentation interne et qui sera chargée de répondre aux réclamations de nos sociétaires, les collaborateurs testeurs contrôlent régulièrement les éventuels dérapages », décrit Nicolas Siegler.

Pas de firewall pour les IA génératives

Le risque ne se limite pas au mécontentement de certains clients ou à une dégradation de l'image de l'entreprise. Il se décline également sur le volet réglementaire, avec des sanctions financières conséquentes. L'AI Act impose aux entreprises une transparence sur l'usage de cette technologie ou encore un suivi des données. Chez Bpifrance, « tous les usages sont supervisés, les prompts sont archivés associés au profil de l'utilisateur », décrit Lionel Chaine. La Maif a développé une plateforme qui gère tous les flux liés à l'utilisation de LLM, « ce qui permet de suivre les impacts environnementaux », signale en passant Nicolas Siegler. Autre risque, en tant qu'entité publique, la DSI de l'agglo de Lorient se doit d'éviter une exposition d'une part de ses données. Si la DSI teste la GenAI avec les solutions phares du marché, elle envisage de mettre cette technologie en production avec des modèles Open Source ou un fournisseur européen, comme Mistral.

Côté cyber, éviter d'exposer les données sensibles reste nécessaire. « À ce jour, les équivalents d'un firewall pour les IA génératives ne sont pas encore au point, par exemple pour éviter l'injection de prompts », rappelle Lionel Chaine. Même l'utilisation d'outils sur étagère censés protéger les données ne met pas les organisations totalement à l'abri. « Nous surveillons le dark web pour vérifier que des données de nos sociétaires ne sont pas divulguées », souligne ainsi Nicolas Siegler. Au final, comme le dit le rapport du Cigref, « l'appréhension des risques doit être faite globalement et non sur chaque facteur ». Sur le terrain, la confidentialité, la sécurité, la protection des données, les hallucinations et la propriété intellectuelle sont souvent imbriquées. Un numéro d'équilibriste pour les DSI, qui n'ont d'autre choix que de suivre le mouvement.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis