Tribunes

L'AI Act, garant de la confiance ou frein à l'innovation ?

L'AI Act, garant de la confiance ou frein à l'innovation ?
Photo Benoit Pitre / PhotoPresta

Le règlement européen relatif à l'intelligence artificielle (AI Act) a été adopté à l'unanimité par les 27 États membres de l'Union européenne, le 2 février 2024. Celui-ci pourrait selon certains observateurs se révéler un frein à l'innovation et une contrainte forte sur les PME.

PublicitéDans la continuité de l'accord provisoire conclu le 8 décembre 2023 par le Parlement et le Conseil, le règlement européen relatif à l'intelligence artificielle (AI Act) a été adopté à l'unanimité par les 27 États membres de l'Union européenne, le 2 février 2024, puis voté par les eurodéputés le 13 février. Ce règlement vise à garantir la sécurité des systèmes d'intelligence artificielle (SIA), le respect des droits fondamentaux, de la démocratie et le développement des entreprises.

Une étape décisive !

Selon la Commission européenne, l'AI Act serait une opportunité pour renforcer la confiance dans les technologies, offrant aux entreprises la possibilité de se positionner en leaders d'une innovation responsable. Le dispositif européen prévoit en effet une harmonisation des règles pour la mise sur le marché, la mise en service et l'usage des IA au sein de l'Union européenne. Ainsi, à la seule exception des SIA développés dans le cadre de la R&D, à des fins militaires ou sans objectifs commerciaux, tous les acteurs de l'IA situés dans l'Union européenne, ou dont les produits sont commercialisés dans l'Union européenne, ont pour obligation de se mettre en conformité avec l'AI Act (1).

Cette obligation se matérialise par l'observation de règles spécifiques en fonction du type d'IA : la stricte interdiction de commercialisation des SIA à risques inacceptables (menaçant les droits fondamentaux, tels les systèmes de vidéosurveillance à reconnaissance biométriques en temps réel), l'obtention de marquage CE pour les SIA dits à haut risque (2) témoignant de la conformité à la réglementation du produit, le respect de l'obligation de transparence pour les SIA à risque faible ou à usage général (GPAI) (3), l'observation d'un code de conduite (« AI Act », article 69) volontaire non contraignant pour les SIA à risque minime (exemple des filtres antispam).

Une réglementation contraignante pour les petites structures

Selon certains observateurs, cependant, l'Union européenne s'est précipitée pour imposer des normes très contraignantes aux acteurs de l'AI Act sans analyser les risques consécutifs. La lourdeur des obligations va ralentir le progrès et freiner la compétitivité en rendant l'accès à l'IA plus difficile pour les PME, malgré certains aménagements prévus à leur endroit (« AI Act », article 55).

Il est vrai que les exigences de la mise en conformité réglementaire peuvent constituer un obstacle important, sur le plan financier tout particulièrement. Cette contrainte est d'autant plus forte que le règlement sur l'IA devra coexister avec les textes déjà en vigueur de l'UE, notamment le RGPD et la directive sur le droit d'auteur dans le marché numérique (4). Les Gafam quant à eux, ne seraient pas impactés par ces coûts. Ils disposent des fonds nécessaires et pourraient même faire usage de leur monopole sur les marchés adjacents afin de bloquer l'accès aux plus petits concurrents.

PublicitéAinsi, le dispositif pourrait bien anéantir les innovateurs européens malgré la mise en place conciliante d'un système de sanction allégé pour les petites et moyennes entreprises de l'IA. Cette inquiétude a été exprimée par le Président Emmanuel Macron qui a demandé « à ce qu'on évalue de manière régulière cette réglementation. Et si on perd des leaders ou des pionniers à cause de ça, il faudra y revenir » (5).

La prochaine étape

Le texte doit encore être voté en séance plénière, en avril, avant d'être adopté formellement au niveau ministériel d'ici à l'été 2024. En principe, l'AI Act devrait être publié durant l'année et entrer en vigueur 20 jours après sa date de publication. Cependant, son entrée en application se fera de manière progressive selon le niveau de risques des systèmes d'IA. En effet, les délais de mises en conformité pour certaines obligations commenceront à courir à compter de cette date (« AI Act », article 85).
- 6 mois pour l'interdiction de commercialisation des SIA à risque inacceptables ;
- 12 mois pour la mise en conformité des modèles et systèmes d'IA à usage général ;
- 24 mois pour la mise en conformité des SIA non régulés par d'autres textes européens ;
- 36 mois pour les SIA à haut risque déjà régulés par d'autres textes européens.

On notera que la Commission a annoncé le 24 janvier 2024 la création de l'AI Office, Bureau européen de l'intelligence artificielle (6), chargé de surveiller les progrès des modèles d'IA, ainsi que l'interaction avec la communauté scientifique. Il jouera un rôle clé en matière de coordination européenne, d'essais et d'application de l'AI Act.

En France, un rapport parlementaire sur l'IA en date du 14 février 2024 (7) suggère de désigner la Cnil pour occuper le rôle de régulateur national de l'IA.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Faites-vous appel à un prestataire extérieur pour vos projets de 4G/5G privée ?