4 entreprises sur 5 ne savent pas sécuriser l'IA

Selon une étude d'Accenture, la plupart des grandes entreprises n'ont pas mis en oeuvre les pratiques permettant de sécuriser leurs déploiements d'IA. Et sont par ailleurs mal armées pour faire face aux nouvelles menaces crées avec cette technologie.
PublicitéL'adoption de l'IA progresse rapidement, sa sécurisation beaucoup moins. Selon une étude d'Accenture, 90% des grandes entreprises dans le monde (réalisant plus d'un milliard de dollars de chiffre d'affaires) n'ont pas la maturité cyber nécessaire pour faire face aux menaces amenées par l'IA. Et, au-delà de cette faiblesse face à l'évolution des acteurs malveillants, 77% des entreprises n'ont pas déployé les pratiques nécessaires pour protéger les modèles qu'elles emploient, leurs pipelines de données et leur infrastructure cloud sous-jacente. Globalement, Accenture classe 63% des organisations dans sa « zone d'exposition », indiquant qu'elles manquent à la fois d'une stratégie cohérente en matière de cybersécurité et des capacités techniques nécessaires.
Un tiers des décideurs conscients du décalage
Selon Accenture, entre 2023 et 2024, les dépenses consacrées aux initiatives d'IA générative étaient 1,6 fois plus élevées que les budgets alloués à la sécurité. Et, en 2025, ce facteur est monté à 2,6. « Les entreprises construisent des systèmes d'IA sur des bases non sécurisées, s'exposant ainsi à un paysage de la menace en évolution rapide », écrivent les auteurs du rapport. Une approche que le cabinet de conseil estime « non viable ». Et de noter que seules 28% des entreprises intègrent d'emblée des contrôles de sécurité dans toutes leurs initiatives de transformation. Problème : les RSSI et DSI interrogés semblent encore peu conscients de ce décalage entre la vitesse de déploiement des applications d'IA et la mise à niveau des pratiques de cybersécurité, seulement 36% des quelque 2300 décideurs interrogés reconnaissant la réalité de ce fossé.
Toutefois, les décideurs prennent peu à peu conscience des risques spécifiques liés à l'IA. 57% se disent ainsi préoccupés ou très préoccupés par les menaces liées à l'empoisonnement des données d'entraînement. Ils sont à peine moins à s'inquiéter des nouvelles menaces découlant de l'accessibilité des outils de GenAI, d'une part, et de l'exposition de données sensibles ou confidentielles par les LLM, d'autre part.
« Cette étude nous rappelle que la cybersécurité ne peut plus être envisagée a posteriori. Elle doit être intégrée dès la conception dans chaque initiative d'IA », souligne Paolo Dal Cin, responsable de la sécurité chez Accenture. Pour mener son étude, le cabinet a interrogé 2 286 décideurs dans 17 pays, issus de 24 secteurs d'activité. 80% d'entre eux sont RSSI, le solde étant constitué de DSI.
Article rédigé par

Reynald Fléchaux, Rédacteur en chef CIO
Suivez l'auteur sur Twitter
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire