Déploiement des LLM en entreprise : les 4 principes clefs pour les RSSI

Dans un marché sous tension face aux risques posés par les grands modèles de langage (LLM), les RSSI doivent garder le cap. Voici quatre principes de sécurité permettant d'encadrer les opérations métiers exploitant l'IA générative.
PublicitéDes risques liés aux applications d'IA, tels que l'empoisonnement des données d'entraînement et les hallucinations, à la sécurité basée sur l'IA, en passant par les deep fakes, le manque de précaution des utilisateurs et les nouvelles techniques d'attaque générées par l'IA, les RSSI font face à toute une série de nouvelles problématiques liées au regain d'intérêt pour l'IA depuis la vague apportée par la GenAI.
Par exemple, pendant et après la conférence RSA d'avril 2025, les participants ont vivement dénoncé la surcharge d'informations visant à provoquer un sentiment d'incertitude ou de panique (FUD, fear, uncertainty and doubt) liées à l'IA, en particulier de la part des fournisseurs. L'un d'entre eux, Tony Martin-Vegue, ingénieur risques chez Netflix, explique, lors d'un entretien après la conférence RSA, qu'il est impossible d'arrêter le train de l'IA, mais qu'il existait des moyens de couper court au battage médiatique et d'appliquer des contrôles de base là où ils étaient les plus importants.
Tout d'abord, dit-il, il faut se concentrer sur les raisons pour lesquelles l'organisation déploie l'IA. « Selon moi, il y a un risque à ne pas utiliser l'IA, même si ses capacités font l'objet de beaucoup de battage et de promesses. Cela dit, les organisations qui n'utilisent pas l'IA resteront à la traîne. Mais ce sont bien les risques liés à l'utilisation de l'IA qui sont la source de toutes les rumeurs ».
En ce qui concerne l'application des contrôles, il conseille d'adapter les processus suivis lors de l'adoption du cloud, du BYOD et d'autres technologies. En commençant, évidemment, par la compréhension de où et de comment l'IA est utilisée, par qui et dans quel but. Ensuite, il s'agit de se concentrer sur la sécurisation des données que les employés partagent avec les outils.
1. Apprenez à connaître votre IA
« L'IA est un changement fondamental qui va imprégner la société d'une manière qui pourrait même éclipser Internet. Mais ce changement se produit à un rythme si rapide que la capacité à identifier le halo qui entoure cette technologie est difficile à comprendre pour beaucoup de gens », explique Rob T. Lee, responsable de la recherche sur l'IA et les menaces émergentes à l'institut SANS, une entreprise américaine spécialisée dans l'information sur la cyber et la formation. « Aujourd'hui, chaque partie de l'organisation va utiliser l'IA sous une forme ou une autre. Vous avez besoin d'un moyen de réduire drastiquement le risque pour accompagner les mises en oeuvre. Cela signifie qu'il faut voir où les gens l'utilisent, et dans quels cas d'usage métier. Et ce, à l'échelle de l'organisation. »
Rob T. Lee, qui aide la SANS à élaborer une liste de directives de sécurité sur l'IA faisant l'objet d'un consensus au sein de la communauté, consacre 30 minutes par jour à l'utilisation d'agents d'IA avancés à diverses fins professionnelles et encourage d'autres responsables de la cybersécurité et dirigeants à faire de même. En effet, une fois familiarisés avec ces outils et leurs capacités, ils peuvent plus simplement s'atteler à la sélection des contrôles.
PublicitéÀ titre d'exemple, Robert T. Lee cite les laboratoires Moderna, qui ont annoncé, en mai 2025 fusionner les ressources humaines et l'informatique sous une nouvelle direction, celle du directeur RH et du numérique. « Le travail ne concerne plus seulement les humains, à la fois ceux-ci et des agents d'IA, explique Rob T. Lee. Cela nécessite que les RH et l'informatique collaborent d'une nouvelle manière ».
2. Revoir les fondamentaux de la sécurité
Ce n'est pas parce que les dernières générations d'IA n'ont que quelques années que les fondamentaux actuels de la sécurité ne comptent plus. Chris Hetner, conseiller en matière de risques cyber auprès de la National Association of Corporate Directors (NACD), une association représentant les membres des conseils d'administration, explique : « le secteur de la cybersécurité fonctionne souvent comme une chambre d'écho et il est calibré pour être très réactif. La chambre d'écho alimente la machine en parlant d'IA agentique, de dérives de l'IA et d'autres risques. Et toute une nouvelle série de fournisseurs vient alors submerger le portefeuille du RSSI, explique-t-il. L'IA n'est qu'une extension de la technologie existante. C'est un nouveau point focal sur lequel nous pouvons nous recentrer sur l'essentiel. »
Lorsque Chris Hetner parle de l'essentiel, il souligne l'importance de comprendre le profil de l'entreprise, de repérer les menaces dans le paysage numérique et de discerner les interconnexions entre les départements de l'organisation. À partir de là, les responsables de la sécurité doivent évaluer les répercussions opérationnelles, juridiques, réglementaires et financières qui pourraient survenir en cas de violation ou d'exposition. Ils doivent ensuite regrouper ces informations dans un profil de risque complet qu'ils présenteront à l'équipe de direction et au conseil d'administration afin qu'ils puissent déterminer les risques qu'ils sont prêts à accepter, ceux qu'il faudra atténuer et ceux qui doivent être transférés.
3. Protéger les données
Étant donné que l'IA est utilisée pour analyser des données financières, commerciales, RH, de développement de produits, de relations avec les clients et autres informations sensibles, Tony Martin-Vegue estime que la protection des données devrait figurer en tête de la liste des contrôles spécifiques de tout gestionnaire des risques. Cela revient à savoir comment les employés utilisent l'IA, pour quelles fonctions et quel type de données ils introduisent dans l'application basée sur l'IA. Ou, comme l'explique un mémo commun de mai 2025 sur la sécurité des données de l'IA, rédigé par les agences de sécurité d'Australie, de Nouvelle-Zélande, du Royaume-Uni et des États-Unis : sachez quelles sont vos données, où elles se trouvent et comment elles sont traitées.
C'est évidemment plus facile à dire qu'à faire, étant donné que la plupart des organisations ne savent pas où se trouvent toutes leurs données sensibles, et encore moins comment les contrôler, selon de multiples enquêtes. Pourtant, comme pour les autres nouvelles technologies, la protection des données utilisées dans les LLM renvoie à l'éducation des utilisateurs et à la gouvernance des données, y compris les contrôles traditionnels tels que les revues de données et le chiffrement.
« Vos utilisateurs peuvent ne pas comprendre les meilleures façons d'utiliser ces solutions d'IA, de sorte que les responsables de la cybersécurité et de la gouvernance doivent aider à concevoir des cas d'usage et des déploiements qui leur conviennent et qui soient conformes aux préconisations de votre équipe de gestion des risques », résume Diana Kelley, analyste en cybersécurité et RSSI chez Protect AI.
4. Protéger le modèle
Diana Kelley souligne les différences de risque entre les divers modèles d'adoption et de déploiement de l'IA. Les versions gratuites et publiques de l'IA, comme ChatGPT, où l'utilisateur insère des données dans une fenêtre de prompt sur le web, offrent le moins de contrôle sur ce qu'il advient des données que les employés partagent. Le fait de payer pour la version professionnelle et d'intégrer l'IA en interne permet aux entreprises de mieux contrôler cet aspect, mais les licences d'entreprise et les coûts d'auto-hébergement sont souvent hors de portée des petites entreprises. Une autre option consiste à exécuter des modèles de fondation sur des plateformes cloud managées comme Amazon Bedrock et d'autres services cloud configurés de manière sécurisée, où les données sont traitées et analysées dans l'environnement protégé du titulaire du compte.
« Il n'y a là aucune magie, même si l'IA est souvent présentée de cette manière. Il s'agit de mathématiques. Ce sont des logiciels. Nous savons comment protéger les logiciels. Cependant, l'IA est un nouveau type de logiciel qui nécessite de nouveaux types d'approches et outils de sécurité, ajoute Diana Kelley. Un fichier modèle est un type de fichier différent, il faut donc un scanner spécialement conçu pour sa structure unique. »
Un fichier modèle est un ensemble de poids et de biais, et lorsqu'il est désérialisé, les organisations exécutent un code non fiable. Ce qui fait des modèles une cible privilégiée pour les attaques par sérialisation de modèle (MSA pour Model serialization attack), menées par des cybercriminels désireux de manipuler les systèmes cibles.
Outre les attaques par MSA, les modèles d'IA, en particulier ceux qui proviennent de sources ouvertes, peuvent être victimes d'attaques de typosquatting qui imitent des noms de fichiers fiables mais renferment du code malveillant. Ils sont également susceptibles de contenir des portes dérobées neuronales et d'autres vulnérabilités de type supply chain. C'est pourquoi Diana Kelley recommande d'analyser les modèles d'IA avant d'en approuver le déploiement et le développement.
Étant donné que les LLM qui soutiennent les applications d'IA sont différents des logiciels traditionnels, les besoins qu'ins font naître en matière d'analyse et de monitoring a fait émerger une multitude de solutions spécialisées. Mais des signes indiquent que ce marché se contracte, car les fournisseurs de sécurité traditionnels commencent à intégrer des outils spécialisés, comme c'est le cas avec l'acquisition en cours de Protect AI par Palo Alto Network. Comme l'indique Diana Kelley : « oui, il y a beaucoup de travail, mais cela ne doit effrayer les RSSI et les organisations. Nul besoin de croire le FUD. »
Article rédigé par
Deb Radcliff, CSO (adapté par Reynald Fléchaux)
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire