Présomption d'exploitation des données par les IA : une initiative sous tension
Le projet de loi, qui instaure une présomption d'exploitation des contenus par les fournisseurs d'IA, sera discuté en séance publique au Sénat ce 8 avril.
PublicitéAfin d'aider « les titulaires des droits d'auteur à exercer et faire respecter les droits que leurs confère la législation de l'Union », une proposition de loi relative à l'instauration d'une présomption d'exploitation des contenus culturels par les fournisseurs d'intelligence artificielle à été déposée au Sénat le 12 décembre 2025. Elle sera examinée en première lecture au Sénat ce 8 avril, après que le Conseil d'Etat a estimé le texte conforme au droit européen.
Le texte vise à renverser la charge de la preuve en matière d'utilisation de contenus soumis droits d'auteur par les fournisseurs d'IA, dans un contexte où les institutions françaises et européennes s'interrogent sur les modalités d'encadrement des systèmes d'exploitation de données. Si elle entrait en vigueur, cette proposition de loi supposerait l'utilisation de toute oeuvre protégée par droit d'auteur ou par un droit voisin par un système ou modèle d'IA « dès lors qu'un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation. »
Un « rééquilibrage probatoire » aux contours incertains
Pour Georgie Courtois, avocat en droit du numérique au sein du cabinet d'origine britannique Simons & Simons (structure spécialisée dans le conseil aux entreprises technologiques et aux organisations sur les enjeux juridiques liés au digital), le texte repose sur une tentative de correction d'un déséquilibre structurel. « Un rééquilibrage probatoire », résume l'avocat, en soulignant « la vraie difficulté à apporter la preuve d'utilisation » dans des systèmes d'IA souvent opaques.
Le dispositif introduit néanmoins une complexité, selon lui : il impose aux acteurs de démontrer un fait négatif. « On est face à une preuve inversée, mais avec une méthode peu précise : prouver qu'un contenu n'a pas été utilisé relève de ce qu'on appelle une "preuve diabolique" », explique-t-il. Autrement dit, une preuve d'un fait qui n'existe pas. Cette incertitude sur les indices permettant de déclencher la présomption constitue, selon lui, la question principale du texte. À ce stade, les critères restent encore flous, ce qui pourrait fragiliser son application opérationnelle.
Un équilibre fragile pour les acteurs de la tech
« On arrive à un système où l'on risque de créer un monstre dans le sens où le système pourrait être un peu trop fort ou trop contraignant pour les créateurs de système d'IA s'il n'est pas bien calibré », alerte Georgie Courtois, évoquant un possible déséquilibre inversé au détriment des fournisseurs d'IA. « Tout va dépendre de la calibration du système et des indices qui seront considérés comme recevables sur la présomption » d'utilisation des oeuvres, insiste-t-il.
PublicitéL'inquiétude porte notamment sur le fait que les premiers acteurs concernés seraient les entreprises françaises, dans un contexte de concurrence internationale accrue. « Il ne faut pas qu'une loi devienne un frein pour les modèles français », souligne-t-il, en faisant référence à l'enjeu de souveraineté numérique. Car le sujet de l'entrainement des IA avec des données protégées dépasse le seul cadre national. L'adoption de régulations au Parlement européen, ainsi que des discussions plus étendues sur la responsabilité des systèmes d'IA, reflète certes une dynamique à l'échelle continentale. Cependant, des initiatives comme la directive concernant la présomption de responsabilité en cas de préjudice causé par un agent IA ont été abandonnées, en raison du manque de maturité du marché.
L'opacité de l'entrainement des IA
La proposition de loi met en lumière une problématique centrale, celle de la transparence des modèles d'IA et de la traçabilité des données utilisées pour leur entrainement. Aujourd'hui, des mécanismes de défense des droits d'auteur existent comme la saisie-contrefaçon ou les procédures fondées sur l'article 145 du Code de procédure civile qui permettent déjà d'obtenir des preuves de l'utilisation d'une oeuvre par un système d'IA, mais à un coût élevé. Par ailleurs, une reproduction faite par une IA n'est pas reconnue comme de la contrefaçon. La proposition de loi cherche à faciliter l'accès à la traçabilité des données, sans pour autant modifier le cadre de fond. « La présomption ne résout pas tout, prévient Georgie Courtois. La meilleure solution reste le système de droit existant », même s'il reconnaît la nécessité d'adapter soit les règles de preuve, soit les mécanismes de rémunération.
Parmi les pistes évoquées figure celle d'une redevance collective. « C'est une solution parmi tant d'autres, même si elle n'est pas parfaite », estime-t-il, pointant un risque d'opacité. La question de l'opt-out, déjà utilisée par les organisations, illustre également les limites du système. Même si l'usage des données est explicitement refusé, la question de l'application de l'opt-out par les acteurs de la tech ne peut être garantie. Ainsi, un titulaire de droits d'auteur pourrait exiger une preuve supplémentaire, fragilisant le dispositif.
La question de la transparence reste donc cruciale. Dans le droit actuel, quand un artiste soupçonne qu'un modèle d'IA a utilisé ses oeuvres lors de son entrainement, c'est à lui de le prouver. Une démarche complexe car les données d'entraînement ne sont pas publiques. La loi pourrait rééquilibrer les rapports de force entre le monde culturel et les géants de la tech.
Protection des datas ou innovation
« Il y a une lutte politique entre le monde de la culture et celui de la tech », observe Georgie Courtois, rappelant que certains détenteurs de droits « estiment avoir été pillés » lors des phases d'entraînement des modèles. Dans ce contexte, la proposition française s'inscrit dans une tendance plus large, marquée notamment par la ligne européenne en matière de régulation des données, dans la lignée du RGPD. Mais cette ambition réglementaire pourrait avoir un coût. « Cette loi peut être compatible avec le droit européen, mais elle peut aussi devenir un frein à l'innovation », résume-t-il. Au législateur français de trouver le juste équilibre.
Article rédigé par
Hanna Elgodjam, Journaliste
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire