Juridique

L'IA Act, une machinerie complexe à maîtriser pour les entreprises

L'IA Act, une machinerie complexe à maîtriser pour les entreprises
L'IA Act promet de définir les responsabilité dans toute la chaîne de l'IA, mais sa complexité effraie déjà. (Photo Pixabay/Geralt/Qimono)

Alors qu'il n'est même pas encore publié, l'IA Act effraie par sa complexité. Premier décryptage du règlement et de ses implications pour les organisations. Faudra-t-il une IA pour comprendre le texte européen ?

PublicitéRGPD bien sûr, mais aussi droit d'auteur, droit de la concurrence, droit du travail... Les solutions d'IA n'échappent pas aux réglementations existantes. Reste que, malgré leurs évidentes spécificités, elles ne font encore l'objet d'aucun droit spécifique. C'est ce à quoi l'Union Européenne souhaite mettre fin, avec son IA Act dont la publication s'est fait un peu attendre. La France a tenté de freiner l'adoption du texte, mais l'Allemagne a finalement voté en faveur de celui-ci, suivi par l'Italie. Le règlement a donc finalement été adopté vendredi 2 février, avant son renvoi devant le Parlement européen.

L'IA Act s'attèle à définir les SIA (systèmes d'intelligence artificielle), leurs niveaux de risque en fonction des usages, mais aussi le degré de responsabilité de l'ensemble des différents acteurs de la chaîne. Pour cela, il classe les organisations en 7 catégories en fonction de leur rôle dans la chaîne, et leur affecte des responsabilités appropriées : fournisseur, importateur, distributeur, déployeur (soit l'entreprise utilisatrice), opérateur, fabricant et personne affectée.
« L'ambition de l'IA Act, c'est de s'intéresser à toute la chaine, même si sont tout particulièrement visés les fournisseurs, les distributeurs et les déployeurs », précise Nadège Martin, associée du cabinet d'avocats d'affaires Norton Rose Fulbright, cabinet qui organisait récemment une matinée consacrée au sujet.

Le fournisseur est celui qui conçoit ou développe le service d'IA, le met en service sous son propre nom et le met sur le marché. Le déployeur, soit l'organisation utilisatrice, acquiert le système d'IA pour l'utiliser, le mettre à disposition de ses employés ou de ses clients, dans le cadre de ses usages. Mais attention, l'appartenance à une catégorie n'est pas immuable. « Dans le cadre de leurs projets, les entreprises doivent s'assurer en permanence que leur qualification ne change pas, insiste Nadège Martin, et qu'elle ne soit pas, de déployeur, amenée à devenir fournisseur. » Et donc à changer de niveau de responsabilité. Cela peut arriver si l'entreprise « appose son nom ou sa marque sur un SIAHR (système d'IA à haut risque) déjà sur le marché ou si elle apporte une modification substantielle » à celui-ci, précise le cabinet Norton Rose Fullbright.

Définir les systèmes d'IA et les moteurs d'IA

« L'IA Act adopte une approche proportionnée fondée sur les risques, par laquelle il définit les obligations au regard du niveau de risque engendré par l'IA », complète Nadège Martin. Il applique ainsi 4 niveaux de risques habituels : risque minimal ou nul, risque limité, haut risque et risque inacceptable, tous liés à des cas d'usage. Mais il ajoute un 5e risque transverse lié à l'usage général de l'IA. « Les éléments de réglementation dévoilés en novembre définissent des obligations pour les modèles de fondation et plus largement l'IA générative. Désormais, on parle plus globalement de système d'IA (SIA) à usage général. » Ce dernier répond à une diversité de finalités pour une utilisation directe ou une intégration dans d'autres SIA. Il s'agit de la solution finalisée, avec son interface utilisateur et ses API, par exemple, mais elle s'appuie sur un 'modèle d'IA à usage général' également défini dans l'IA Act, comme le coeur proprement dit du système, faisant « preuve d'une grande généralité » et capable d'exécuter un large éventail de tâches distinctes. La qualification de « large » relève ici de l'euphémisme puisque l'on parlerait d'au moins un milliard de tâches.

PublicitéLes obligations sont nombreuses. Tous les fournisseurs de modèles d'IA à usage général seront, par exemple, tenus de « rédiger et tenir à jour une documentation technique sur le modèle, le processus de formation et d'essai, les résultats de son évaluation et la consommation d'énergie » et de la transmettre aux fournisseurs de solutions qui l'exploiteront. Les déployeurs d'IA à usage général se doivent elles d'informer les utilisateurs finaux de l'usage d'une IA ou de la présence de contenu généré par IA. Elles doivent aussi indiquer si le modèle a été entrainé avec des données protégées par le droit d'auteur. Parmi les obligations supplémentaires appliquées aux fournisseurs de SIA à haut risque cette fois, on trouve la mise en place d'un dispositif de gestion des risques et de la qualité sur l'ensemble du cycle de développement ou la surveillance après la mise sur le marché, avec la conservation des logs par exemple.

Des sanctions de 7,5 à 35 M€

Du côté des utilisateurs de ces SIAHR, le règlement exige entre autres une supervision humaine et une analyse d'impact sur les droits fondamentaux des personnes dans certains cas. Et comme le rappelle Nadège Martin, le risque n'est pas évalué uniquement sur les modules de la solution utilisés par l'organisation, mais pour « l'ensemble du champ des possibles » de celle-ci. Comme pour le RGPD, l'analyse qui va déterminer si le SIA est un SIAHR après prise en compte du champ des possibles se fera au cas par cas. Les sanctions pour non-respect du règlement quant à des pratiques de l'IA interdites montent jusqu'à 35 M€ ou 7% du CA annuel mondial ou 15 M€ et 3% du CA mondial pour le non-respect d'exigences data, gouvernance et transparence des SIAHR. La fourniture d'informations incorrectes ou le manquement à les fournir entraînent une sanction de 7,5 M€ ou 1% du CA mondial.

Après son vote, l'application de l'IA Act se déroulera par tranche, à partir de 20 jours après publication du décret, probablement entre l'automne 2024 et le printemps 2027, en partant des SIA présentant le risque le plus important. Ainsi, dès 6 mois après le décret d'applicabilité, certaines pratiques à risque « inacceptable » seront prohibées. Il s'agit par exemple de techniques subliminales manipulatrices, de catégorisation de personnes sur base biométrique ou encore de scoring basé sur le comportement social. Les obligations concernant les systèmes à haut risque des annexes III (sécurité de produits comme les ascenseurs, avions, véhicules, dispositifs médicaux, jouets, etc.) et II (cas d'usage spécifiques dans la biométrie, la gestion d'infrastructures publiques critiques, etc.) interviendront respectivement 24 et 36 mois après publication du texte. « Ce sont des éléments particulièrement difficiles à s'approprier par les entreprises utilisatrices, estime Nadège Martin. L'évaluation est plutôt du ressort des fournisseurs. » Ceux-ci autoqualifieront leurs solutions dans une base consultable par les organisations qui voudraient les mettre en place.

Trop complexe, trop étalé dans le temps ?

On serait tentés de se demander si une IA générative ne sera pas indispensable pour comprendre, analyser et surtout appliquer les principes de l'IA Act. De l'avis de nombreux juristes spécialisés, on se dirige vers un règlement aussi complexe à comprendre et à respecter que le RGPD. Voire pire... Car celui-ci impose aux entreprises et à leurs équipes, du juridique à la DAF, en passant par les RH, de comprendre les mécanismes de l'IA appliqués dans le cadre de leur fonction. « Si une entreprise exploite un SIRH à base d'IA pour donner un score aux candidats, souligne par exemple Nadège Martin, elle doit pouvoir expliquer à un candidat quel mécanisme l'a conduit à avoir une note inférieure à un autre candidat, par exemple. » Même si la Commission européenne promet un guide et un outil sur le modèle de l'étude d'impact de la Cnil, le défi face à une technologie aussi complexe et mouvante paraît particulièrement important.

Par ailleurs, si le droit court toujours après la technologie, il apparaît d'ores et déjà inquiétant que l'application de l'IA Act - qui n'est pas encore publié - s'étale sur plus de 3 ans. Les incidences de l'utilisation de l'IA générative sont déjà nombreuses, et ses progrès et ceux de ses utilisateurs posent de nouvelles questions, en particulier lorsque cette technologie est combinée à d'autres IA comme la computervision ou le NLP. Les violations du droit d'auteur ou de la vie privée paraissent difficile à arrêter, à l'heure où même le grand public s'adonne aux joies de l'IA. Les deep fakes font florès. Il est déjà possible, par exemple, de synchroniser la traduction d'un discours, sur la vidéo de la personne qui l'a prononcé dans sa langue d'origine, par exemple.

Enfin, comment imputer la responsabilité d'un risque à un fournisseur ou utilisateur d'IA lorsque les mécanismes de celle-ci ne sont pas connus ? Même si l'IA Act prévoit d'en imposer la documentation. Certaines entreprises dont l'activité est directement visée par la technologie, comme les sociétés de droit d'auteur (Sacem en France, Gema en Allemagne), s'intéressent de près au sujet. Et contrairement à la future réglementation européenne, elles se concentrent sur l'identification de solutions technologiques de décryptage des mécanismes de l'IA générative. Ces dernières permettraient ainsi au moins de déterminer dans quelle proportion une IA a été utilisée dans la création d'une oeuvre, et à partir de quelles oeuvres éventuellement protégées elle a été générée, et ainsi savoir à qui en reviennent les droits.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Votre entreprise a-t-elle pour politique de privilégier le cloud public pour tout nouveau projet ou déploiement ?