Stratégie

Intelligence Artificielle : les entreprises attendent éthique et régulation

Intelligence Artificielle : les entreprises attendent éthique et régulation
Bernard Duverneuil, vice-président du Cigref, a ouvert le colloque du 28 septembre 2016 sur la gouvernance de l’intelligence artificielle dans les entreprises.

Le 28 septembre 2016, le Cigref a organisé à l'Automobile Club de France à Paris un colloque sur la « Gouvernance de l'intelligence artificielle dans les grandes entreprises ». Il faisait écho à un livre blanc publié simultanément par l'association de grandes entreprises.

PublicitéKonstantinos Voyiatzis (DSI d'Edenred, Administrateur du Cigref) et l'avocat Alain Bensoussan ont été à l'origine de la création d'un Cercle Intelligence Artificielle associant une cinquantaine de responsables, membres ou non du Cigref. Les travaux de ce cercle visait à développer trois axes : un état des lieux de la question, comment s'assurer d'utiliser l'intelligence artificielle au service de l'humain et, enfin, définir les grands enjeux. Outre un livre blanc (voir encadré), ces travaux ont débouché sur un colloque organisé par le Cigref le 28 septembre 2016 à l'Automobile Club de France à Paris. Ce colloque a été ouvert par Bernard Duverneuil, vice-président du Cigref.
Le sujet de l'Intelligence artificielle n'est pas neuf, abordé dans la science-fiction depuis des décennies. Mais, déjà la multiplication des décisions prises par algorithmes ou avec l'assistance d'algorithmes s'étend. Et les capacités techniques s'accroissent au point d'amener une urgence à se poser un certain nombre de questions. Avant qu'il ne soit trop tard.
Si le Cigref se préoccupe évidemment beaucoup des enjeux managériaux et business de l'émergence des intelligences artificielles modernes, l'association de 140 grandes entreprises veut aussi un usage responsable de ces technologies. Cette préoccupation éthique concerne notamment l'usage des données et les algorithmes qui y sont appliqués, avec parfois des conséquences sociétales indésirables. Les travaux menés avaient donc un aspect éthique mais aussi de recherche et d'anticipation, en associant des chercheurs et des entreprises, comme d'interaction entre start-up et grandes entreprises afin d'assurer un dynamisme pérenne de cet écosystème garantissant aux secondes l'innovation issue des premières.

Le Vivrensemble étendu aux robots, maîtres ou esclaves

« L'intelligence artificielle va amener une évolution majeure du monde où robots et humains vont devoir apprendre à vivre ensemble » a ainsi lancé l'avocat Alain Bensoussan. La phase actuelle voit notre liberté assistée par les algorithmes sans que, toujours, on en soit conscient. Alain Bensoussan cite un exemple quotidien : « le GPS a remplacé la carte et la boussole. Et on parle parfois à son GPS, sans s'en rendre compte. » Petit à petit, on risque ainsi un esclavage technologique qui est d'autant plus redoutable que c'est un esclavage consenti.
En effet, les personnes obéissent volontiers et font confiance aux algorithmes. Certes, le télédiagnostic médical opéré par intelligence artificielle est souvent plus efficient que le diagnostic humain. Mais qui créé ces algorithmes ? Quelles sont leurs variables, leurs axes ? Quels valeurs morales portent-ils ? Surtout, vient vite se poser une question : et s'il y a une erreur, qui est responsable ? Cette question intéresse évidemment l'avocat Alain Bensoussan. Mais force est de constater que la réglementation n'a pas encore apporté de réponse claire. Mettant ainsi en péril l'adoption de l'intelligence artificielle.
A partir de 2020, il est probable, selon l'avocat, que l'intelligence artificielle s'emparera de corps robotiques matériels (humanoïdes, véhicules-robots...). Cette question se posera donc avec plus encore de nécessité.

PublicitéQuoi de neuf ? Une révolution nommée Big Data

Mais pourquoi se poser ces questions aujourd'hui ? N'est-il pas ou trop tôt ou trop tard ? En ce moment, l'intelligence artificielle connaît une mue. Celle-ci n'est pas finie. Celle-ci a un nom : Big Data. Au lieu des outils développés depuis des années, ou même des monstres imaginés par la science-fiction, ce sont des acteurs du web (comme Google ou Facebook) qui se penchent sur l'application de l'intelligence artificielle aux innombrables données à leur disposition. Et cela change tout. L'exploitation des données -notamment des données personnelles- en est bouleversée. Pour le meilleur comme pour le pire.
« Le but du Cercle est de travailler sur les enjeux de gouvernance (notamment managériaux, éthiques et techniques) mais en essayant d'être en avance de phase pour influer sur l'avenir » a expliqué Konstantinos Voyiatzis, DSI d'Edenred et administrateur du Cigref. Celui-ci n'a pu que se désoler que les entreprises françaises se préoccupent peu du sujet, laissant ainsi celui-ci entre les seules mains d'acteurs américains aux choix politiques radicaux souvent éloignés de ceux du Vieux Continent. C'est d'autant plus désolant que, comme l'a rappelé Konstantinos Voyiatzis, « l'intelligence artificielle fait partie de l'évolution des business models. » Par exemple, la transformation des traitements et des procédures d'un mode séquentiels à un mode parallèle, induit par la généralisation de l'intelligence artificielle, met à mal l'organisation actuelle des entreprises.

Des talents peu exploités, des concepts peu définis

La France est riche en talents mathématiques et de data scientists. Ces talents méritent d'être cultivés pour assurer la place de la France dans le nouveau monde qui vient. Or bien peu d'entreprises se préoccupent de ces sujets. Ou attribuent des budgets, ce qui revient au même.
Il est vrai que, comme l'a soulevé la chercheuse à Paris-Sorbonne et au CNRS Laurence Devillers, « l'intelligence artificielle est un concept peu défini, les définitions qui se multiplient depuis des dizaines d'années étant floues voire contradictoires. » Pour elle, tout emploi du terme d'« intelligence artificielle » doit donc être associé à une définition. « L'intelligence artificielle est de fait très présente dans la banque depuis des années, par exemple pour calculer des scorings de crédit » a d'ailleurs aussitôt concédé Françoise Mercadal-Delasalles, directrice des ressources et de l'innovation du groupe Société Générale.
L'émergence des intelligences artificielles actuelles permet en fait d'aller plus vite en traitant plus de données. Pour Françoise Mercadal-Delasalles, « l'intérêt de l'intelligence artificielle actuelle s'accroît avec la croissance des données traitées, en mettre en oeuvre sans datalake n'a donc aucun sens. » Ces nouvelles intelligences artificielles donnent des opportunités d'amélioration du pilotage des entreprises en baissant les risques d'erreurs.
Mais Laurence Devillers a aussitôt pointé le sujet qui fâche : d'où viennent les données ? Comment ont-elles été collectées ? Les personnes concernées ont-elles émis un consentement éclairé ? Le risque est bien celui de la discrimination implicite. Il est donc indispensable d'avoir des algorithmes un minimum transparents pour comprendre un prix ou un score.

L'enjeu de l'acceptabilité sociale

L'acceptabilité sociale de l'intelligence artificielle est ainsi loin d'être totale. Cécile Wendling, responsable de la prospective pour le groupe Axa, a ainsi relevé : « si des accidents de voitures sont causés par des humains, c'est socialement acceptable ; si moins d'accidents sont causés par des robots, ce n'est pas acceptable. » Les différentes formes d'intelligences artificielles, plus ou moins « fortes » (autonomes), doivent donc être étudiées au travers de scénarios laissant plus ou moins de responsabilités aux humains. Les enjeux autour de la responsabilité en cas de bug voire de piratage sont considérables, surtout si des milliers de véhicules sont concernés en même temps. Et comment couvrir les risques par une assurance ? La tentation est donc de refuser une intelligence artificielle autonome, n'acceptant que la forme atténuée laissant la responsabilité aux humains.
Sur ce point, la réglementation sera un élément fondamental de la confiance et donc de l'acceptabilité sociale, avec d'inévitables différences entre pays. De telles différences existent d'ailleurs déjà mais sous un angle aujourd'hui culturel. L'Occident connaît Pygmalion, Prométhée et le Golem. L'a-priori est donc négatif en Occident. A l'inverse, le Japon connaît les super-héros (Goldorak, Astro...) et les Japonais aiment donc les robots.
Le dernier enjeu, et de taille, est celui de la crainte du chômage généralisé ou de la multiplication de conflits sociaux liés au Grand Remplacement des hommes par les robots. Or un tel remplacement ferait s'écrouler l'économie si les individus sont de ce fait privés de pouvoir d'achat. Le philosophe Bernard Stiegler a ainsi conclu le colloque par divers exercices de prospective.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis