Technologies

Les risques liés à l'IA occasionnent déjà des pertes dans la quasi-totalité des entreprises

Les risques liés à l'IA occasionnent déjà des pertes dans la quasi-totalité des entreprises
Les applications d’IA apportent de nouveaux risques… qui se sont déjà concrétisés dans 99% des grandes organisations, selon une étude d’EY. (Photo : Immo Wegmann/Unsplash)

Une étude d'EY souligne la banalisation des pertes liées à l'IA au sein des grandes organisations. Pour le cabinet, les principes de l'IA responsable permettent de limiter ces risques, mais aussi d'améliorer le ROI des investissements dans la technologie.

Publicité« L'IA responsable n'est pas une question de conformité. C'est un levier de performances ». Comme l'indique Joe Depa, directeur de l'innovation d'EY, la mise en place de garde-fous pour l'IA permet de limiter les risques associés à la technologie, mais aussi d'améliorer le ROI de ces investissements. Et non simplement de cocher des cases pour démontrer la conformité de l'organisation.

Une étude d'EY, publiée en juin et basée sur les réponses de 975 dirigeants travaillant pour des entreprises réalisant plus d'un milliard de dollars de chiffre d 'affaires, souligne que plus de trois organisations sur cinq ont déjà subi des pertes d'au moins un million de dollars provenant de risques liés à l'IA, et que la quasi-totalité des organisations (99 %) reconnaissent un impact financier né d'usages mal encadrés de la technologie. EY estime les pertes totales des participants à son étude à 4,3 Md$.

Des risques réduits de 30%

Les risques les plus fréquemment signalés par les organisations concernent le non-respect des réglementations en matière d'IA (57%), les impacts négatifs sur les objectifs de développement durable (55%) et les biais dans les résultats (53%). Des sujets comme l'explicabilité, la responsabilité juridique et les atteintes à la réputation sont jusqu'à présent moins prégnants, même si EY estime que ces risques devraient progresser à mesure que l'IA sera déployée de manière plus apparente et à plus grande échelle. Surtout, l'étude du cabinet souligne que les entreprises dotées d'un ensemble défini de principes d'IA responsable voient ces risques diminuer de 30 % par rapport à leurs pairs moins préparés.

Comme l'indique Joe Depa, dans un billet de blog, la mise en oeuvre d'une politique d'IA responsable passe par de la communication - avec la formulation de principes -, leur mise en oeuvre et de la gouvernance, pour s'assurer du respect du cadre dans la durée. Une large majorité des entreprises a démarré la mise en oeuvre d'une telle politique, en particulier sur le volet communication. En moyenne, les entreprises sondées par EY ont mis en place 7 des 10 principes clefs, les télécoms apparaissant comme le secteur le plus avancé (7,5 mesures déployées), tandis que la banque et le secteur public figurent en queue de peloton (6,6 mesures).

Un levier d'efficacité ?

Au-delà de ce constat, selon Joe Depa, « les entreprises qui ont adopté une IA responsable progressent là où les autres stagnent. Les organisations qui adoptent des mesures de gouvernance, notamment des comités de suivi et un monitoring temps réel, sont bien plus susceptibles d'enregistrer des améliorations en termes de croissance du chiffre d'affaires, de satisfaction des employés et de réduction des coûts, précisément les domaines où la plupart des organisations peinent à dégager des résultats. »

PublicitéComme d'autres études, l'enquête d'EY souligne, en effet, la difficulté des entreprises à corréler leurs investissements dans l'IA avec des indicateurs clefs, comme la réduction des coûts ou la croissance de l'activité. Or, pour EY, les organisations qui ont un comité de suivi ont 65% plus de probabilité de dégager des économies que celles qui n'ont pas une telle structure. Tandis que celles qui ont mis en place un monitoring temps réel ont 35% plus de chance de connaître une progression de leur chiffre d'affaires que les autres. « Pour les chefs d'entreprise, le message est clair : pour augmenter le retour sur investissement dans IA, il faut progresser sur la voie de l'IA responsable », écrit Joe Depa.

Pour EY, cette question de l'encadrement de l'IA va encore gagner avec le déploiement des agents d'IA. Surtout que deux-tiers des organisations autorisent leurs employés non issus de la DSI ou du département data - les citizen développeurs - à créer ce type d'applications. Or, parmi celles-ci, quatre sur dix ne possèdent aucun cadre formel, à l'échelle de l'organisation, permettant d'assurer le respect des pratiques d'IA responsable et seulement la moitié des organisations ont un bon niveau de visibilité sur les développements réalisés par les différentes entités en interne.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis