Contenu Sponsorisé

IA et fonctions finance : la vitesse seule ne suffit pas, la fiabilité reste essentielle

IA et fonctions finance : la vitesse seule ne suffit pas, la fiabilité reste essentielle

Derrière les gains de productivité apportés par l'IA aux fonctions finance, de nouveaux enjeux émergent. Pour les DAF et les DSI, la question n'est plus seulement de déployer l'IA, mais de structurer son utilisation pour qu'elle soit fiable, explicable et maîtrisée. Ahmed Fessi, Directeur de la Transformation et des Systèmes d'Information de Medius, livre son analyse et des pistes d'action pour ancrer durablement l'IA dans les processus financiers.

PublicitéL'IA intervient aujourd'hui tout au long du cycle finance, y compris dans le traitement des factures fournisseurs et des notes de frais. Elle constitue un puissant outil d'aide à la décision, à condition d'être mobilisée avec discernement. L'IA peut générer des résultats très plausibles, mais pas toujours corrects. « C'est précisément pour cela que l'expertise humaine reste essentielle », explique Ahmed Fessi.

« L'humain est la première ligne de défense et source de valeur »

Pour Ahmed Fessi, l'IA renforce le rôle des collaborateurs plutôt qu'elle ne le diminue :
« L'humain est la première ligne de défense, mais aussi la première source de valeur. Il conserve pleinement sa responsabilité et sa capacité d'arbitrage. L'IA lui apporte des éléments supplémentaires pour décider plus vite et plus efficacement, sans jamais se substituer à son jugement. » Cette vigilance est particulièrement importante lorsque l'IA intervient dans des décisions sensibles, comme la détection de fraudes internes. L'IA génère un éclairage précieux, mais le raisonnement humain demeure indispensable pour valider et contextualiser les résultats.

Vers une IA explicable et gouvernée

Pour ancrer durablement l'IA dans les processus financiers, la compréhension des modèles devient un facteur clé de confiance. 

 « L'IA repose sur des modèles probabilistes, là où l'automatisation classique suit des règles strictes et déterministes. Concrètement, l'IA analyse les données et identifie des schémas pour proposer des recommandations ou des prédictions, plutôt que de produire systématiquement le même résultat » détaille Ahmed Fessi.

Ahmed Fessi estime que « l'enjeu n'est pas de décortiquer chaque ligne de code, mais de garantir que le modèle est robuste, traçable et utilisé dans des conditions fiables, afin que les décisions, sur lesquelles il apporte un éclairage, restent cohérentes et maîtrisées ».

Cette exigence d'explicabilité constitue un levier de maturité pour les organisations. Elle permet non seulement de sécuriser les décisions, mais aussi de mieux les documenter et de renforcer leur légitimité interne et externe.

Chez Medius, cette exigence se traduit par la publication de « model cards » qui documentent les données d'entraînement, les usages prévus, les limites des modèles et les tests réalisés. « L'objectif est de donner à nos clients une vision claire du fonctionnement général du modèle et des garanties associées », précise Ahmed Fessi.

Au-delà de la performance technologique, cette transparence s'inscrit également dans un cadre réglementaire renforcé avec le EU AI Act. Plus qu'une contrainte, ce cadre contribue à professionnaliser l'usage de l'IA et à structurer sa gouvernance dans les directions financières.

Publicité Une bonne décision repose sur des données fiables

Une décision explicable n'est fiable que si elle repose sur des données elles-mêmes fiables. Des informations bien structurées et pertinentes permettent à l'IA de produire des résultats précis et exploitables.

« Assurer la qualité des données est un travail rigoureux, mais essentiel », souligne Ahmed Fessi. « Même 1 % de données incorrectes peut être amplifié par l'IA, générant jusqu'à 5 ou 10 % d'erreurs dans les résultats », souligne Ahmed Fessi. C'est pourquoi il est important de nettoyer et de valider les données dès le départ. »

La qualité des données d'entraînement est un aussi levier fondamental pour la fiabilité de l'IA. « Plus les données utilisées pour entraîner le modèle sont précises et complètes, plus les résultats générés seront fiables », explique Ahmed Fessi. « Si les données initiales ne sont pas suffisamment rigoureuses, le modèle reproduira des erreurs. C'est pour cela que le contrôle sur la qualité de données en amont de la chaîne reste fondamental. 

Et l'IA s'améliore grâce à un entraînement continu. « En intégrant régulièrement le feedback des utilisateurs, nous renforçons progressivement la fiabilité du modèle et la pertinence de ses recommandations », conclut-il.

Sensibiliser pour fiabiliser l'usage de l'IA

Même avec des données de qualité, la fiabilité peut être compromise si les outils eux-mêmes ne sont pas sécurisés. Selon PwC, le cyber représente le troisième danger pour les DAF en 2026. L'utilisation de l'IA offre de nouvelles surfaces d'attaque. Les entreprises sont exposées à des menaces, comme les fuites de données ou l'usage non encadré de certains outils. Ce phénomène, parfois appelé Shadow AI, se produit lorsque les collaborateurs utilisent des solutions IA non validées ni supervisées par la DSI.

Pour Ahmed Fessi, le remède au Shadow AI n'est pas d'interdire l'utilisation de l'IA mais de former les salariés. « Le Shadow AI est la résultante naturelle d'une interdiction qui ne propose pas d'alternative. La vraie réponse, c'est donner les bons outils IA aux collaborateurs », estime-t-il. La formation est d'ailleurs très demandée : 9 collaborateurs sur 10 souhaitent être formés selon une étude KPMG.

La formation est cruciale car la DSI ne peut pas contrôler tous les faits et gestes des salariés. C'est ce que rappelle Ahmed Fessi : « il est tout à fait possible qu'un collaborateur utilise son téléphone personnel pour poser une question à un outil d'IA avec des données confidentielles. Ce type de situation échappe aux systèmes d'information. C'est pourquoi la sensibilisation reste, selon moi, la première mesure à mettre en place pour garantir un usage sûr et maîtrisé », conclut Ahmed Fessi.

Quand la fraude met la confiance à l'épreuve

La fiabilité des décisions financières repose non seulement sur la sécurité des outils, mais aussi sur la capacité à détecter et prévenir les fraudes, y compris celles générées par l'IA. En effet, avec l'IA générative et l'évolution des modèles, certaines fraudes se complexifient. Avec l'IA générative, il est possible de créer rapidement de faux e-mails ou fausses factures, et les deepfakes rendent l'arnaque au président plus difficile à détecter en reproduisant la voix ou l'image de manière très réaliste. « Dans une étude menée auprès de nos clients, 53 % des directions financières ont été confrontées à une fraude via un deepfake », signale Ahmed Fessi.

Pour lutter contre ces menaces, l'IA peut elle-même devenir un puissant outil de détection. « Elle permet d'identifier des comportements récurrents et d'analyser de larges volumes de données, en les comparant à des historiques pour repérer les anomalies potentielles », explique Ahmed Fessi.

Pour détecter la fraude commise par l'IA, la solution peut être l'IA elle-même. Ahmed Fessi en décrit le fonctionnement : « l'IA permet de détecter certains patterns et d'analyser de gros volumes de données puis de les comparer à des données historiques ».

Un usage de l'IA qui séduit de nombreuses organisations. « Les directions financières adoptent nos solutions non seulement pour automatiser leurs processus, mais aussi pour détecter les risques de fraude, que ce soit dans la comptabilité fournisseurs ou pour les notes de frais », explique Ahmed Fessi. L'IA ne crée de valeur pour les fonctions finance que si les décisions qu'elle alimente restent fiables, explicables et maîtrisées.

L'IA, levier d'efficacité lorsqu'elle produit un réel impact

Ahmed Fessi rappelle un chiffre frappant : 95 % des projets pilotes en IA n'aboutissent pas (MIT). « Pour créer de la valeur, l'IA doit aussi être utile », conclut-il. Lorsqu'elle est correctement utilisée, elle accélère l'extraction de données, assiste les collaborateurs dans la prise de décision et renforce la fiabilité des processus financiers.

Chez Medius, l'intelligence artificielle intégrée à ses solutions d'automatisation de la comptabilité fournisseurs et de gestion des notes de frais repose sur des cas d'usage concrets, identifiés en amont à partir de demandes récurrentes et d'expérimentations. « Notre objectif est d'avoir un impact réel et immédiat pour les DAF », explique Ahmed Fessi.

Cela peut se traduire par la fluidification du processus comptable, l'amélioration de la détection des fraudes et des erreurs, la prise en charge de tâches chronophages ou l'information des collaborateurs et fournisseurs, afin de recentrer les équipes sur l'analyse, le pilotage et la décision, et tendre vers une finance plus fluide et autonome.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis