Interviews

Antonio Casilli, sociologue : « l'IA représente une menace sur l'emploi socialement acceptable »

Antonio Casilli, sociologue : « l'IA représente une menace sur l'emploi socialement acceptable »
Antonio Casilli, professeur à l'Institut Polytechnique de Paris, chercheur en sociologie, auteur du livre En attendant les robots. (Photo Sébastien Calvet)

Chercheur en sociologie, spécialiste du digital labor, Antonio Casilli explique pourquoi l'IA est un coupable idéal lorsqu'on parle de suppressions d'emploi, ou de recul de l'emploi des jeunes. Il décrypte également les enjeux environnementaux et sociaux croisés de l'IA, avec une explosion du phénomène des travailleurs précaires de la donnée.

PublicitéDans certaines entreprises, le déploiement d'une stratégie IA va de pair avec, a minima, une réflexion sur les enjeux de transformation du travail, voire la définition de chartes éthiques ou la mise en place d'une gouvernance qui inclut les employés, voire les syndicats. Reste que l'IA est aussi de plus en plus souvent invoquée comme la cause de suppressions d'emplois massives.

Nous avons demandé à Antonio Casilli pourquoi il estime que, finalement, l'IA n'est qu'un prétexte pour licencier. Une forme de coupable idéal. Professeur à l'Institut Polytechnique de Paris, auteur du livre « En attendant les robots » et co-auteur du documentaire « dans le ventre de l'IA » pour France TV, Antonio Casilli est un chercheur en sociologie, spécialiste de longue date du digital labor. Et parce qu'une stratégie RSE de l'IA ne se limite pas à l'impact environnemental de la technologie ou à la transformation des métiers dans une organisation, il nous rappelle justement les enjeux sociaux et sociétaux liés à l'appel fait à des « travailleurs de la data », précaires. Des digital workers de l'IA.

CIO : selon vous, les entreprises de la tech se servent de l'IA pour justifier de vagues de licenciements souvent massives. Pourquoi ce point de vue ? Et ce constat concerne-t-il finalement uniquement le secteur de la tech ?

Antonio Casilli : Non, cela ne concerne pas que le secteur de la tech. En cascade, cela atteint tous les secteurs économiques. Dans la mesure où les branches consulting et service des géants de la tech et les grands cabinets de consulting internationaux cherchent à vendre des services d'IA avec la promesse d'une augmentation de la productivité qui, aux yeux et aux oreilles des décideurs et des investisseurs, se traduit presque automatiquement par la possibilité de licencier à tour de bras. Par-delà la réalité de l'allégation selon laquelle ces IA produisent des gains de productivité, cela se transforme donc en un instrument extrêmement efficace pour licencier sans pour autant subir de conséquences d'image en interne, ni de rupture du contrat social que toute entreprise a avec ses consommateurs, ses clients, la société civile, etc.

Des études de sciences de gestion attestent, par exemple, qu'une entreprise qui déclare licencier son personnel au nom de l'IA est considérée aux Etats-Unis comme plus éthique qu'une entreprise qui licencie pour des raisons de coûts. [Antonio Casilli cite l'étude sur le sujet « Collective layoffs and offshoring: A social contract account » parue dans le Journal of consumer science en octobre 2025.]

Est-ce que ce ne sont pas par ailleurs des constats, des études qui ne concernent que les États-Unis ?

PublicitéOui, principalement, c'est le cas. Parce que bien sûr, dans d'autres pays, il existe des formes différentes de protection des salariés. Pour autant, en France aussi, on invoque l'IA pour annoncer la possibilité ou, plutôt, agiter la menace du remplacement d'un nombre x d'emplois. Et pour moi, ces effets d'annonce sont beaucoup plus importants que la réalité de ces remplacements [des emplois par l'IA] qui, en fait, n'est pas là. L'importance de l'effet d'annonce sert à discipliner le travail.

Une forme de menace ?

C'est une menace, oui ! Qui plus est, c'est une menace socialement acceptable. Les syndicats se « tiennent à carreau », parce que c'est aussi une manière d'organiser le renoncement à la lutte, à la réactivité face à ces annonces. Parce que les syndicats, et les travailleurs en général, se disent eux aussi que c'est le progrès et que l'on n'y peut rien. Il y a cet effet de fatalisme positiviste, qui les pousse à ne pas réagir.

Est-ce aussi lié à cette idée selon laquelle si une entreprise ne déploie pas de stratégie d'IA, elle va être dépassée, qu'elle a donc l'obligation « d'y aller » ?

Ça c'est moins une menace, qu'une question de chantage à la possibilité d'une décroissance économique. C'est un art éminemment français que de dire « si on n'y va pas, les Chinois, les autres, eux, vont y aller ». En quelque sorte, il s'agit de dire qu'il vaut « mieux » être licencié ou automatisé par une entreprise bien de chez nous, que d'attendre que quelques puissances étrangères s'emparent des parts de marché et éjectent des entreprises françaises.

Pour résumer, c'est bien une manière de discipliner le travail, un effet d'annonce plus important que la réalité de prétendus gains de productivité qui ne sont malheureusement pas au rendez-vous. Et la France n'est pas mieux placée que les autres pays, malgré les tutelles et les protections sociales encore en place.

L'IA ne serait donc pas, selon vous, réellement responsable des menaces de licenciements, ou de réelles suppressions d'emploi, mais elle serait un simple prétexte ?

C'est un prétexte, oui. Mais le masque tombe très vite. On peut regarder, par exemple, ce qui s'est passé chez Amazon, qui a annoncé 30 000 licenciements cette année. Les cadres dirigeants, à l'origine de cette décision, ont ensuite déclaré haut et fort à la presse que l'automatisation n'y était pour rien, mais qu'il s'agissait d'un « culture change », d'un changement de culture de l'entreprise. Je l'interprète surtout comme étant un changement de culture face au travail. On doit moins entendre la voix des travailleurs. Et le fait d'en éjecter 30 000 est un bon signal de redistribution des cartes du pouvoir au sein d'une entreprise comme Amazon, qui gère une masse salariale énorme.

C'est donc bien une tendance que l'on va voir, ou que l'on voit déjà se décliner dans les autres secteurs que la tech et dans d'autres pays que les États-Unis. Mais du côté des DSI, on entend quand même plutôt dire que les employés, les syndicats, sont impliqués en amont des projets d'IA et qu'on ne remplacera pas ces employés, mais que l'on va les augmenter ?

En fait, les DSI savent très bien que la prétendue révolution de l'IA générative n'est pas une révolution, mais qu'il s'agit bien d'une continuité des vagues d'automatisation qui ont lieu depuis au moins la décennie précédente. Ce sont certes des algorithmes sous stéroïdes, mais c'est grosso modo le même principe, du point de vue technologique que ce que l'on nomme les "smart technology, artificial intelligence, robotics and algorithms", soit Stara. Mais ce ne sont pas les DSI qui portent la décision finale sur le choix d'une solution d'IA. Ce sont les investisseurs qui sont très agités par cet état de « fomo » [fear of missing out], cette peur de rater une occasion. Et ce sont souvent eux, et les décideurs dans d'autres contextes, qui portent une forme d'évangile de l'IA. D'autant qu'ils sont la cible directe des grands du domaine, Open AI, Google, Amazon et de grands cabinets comme Accenture ou Capgemini, qui cherchent à vendre de l'IA en toute occasion et partout. Il y a quelques années, on a dit que le logiciel dévorait le monde. Cette fois, c'est au tour de l'IA de dévorer le logiciel. Aujourd'hui, quand vous achetez une solution, il y a de fortes chances que quelqu'un ait ajouté de l'IA dedans. Et donc, les DSI peuvent bien se dire prudents mais, en réalité, ce n'est pas forcément eux qui prennent la décision.

On parle aussi de l'IA comme d'un frein important à l'embauche ou au maintien en emploi des plus jeunes. Mais là aussi, vous dites que c'était déjà le cas, avec une précarisation de l'emploi des jeunes que l'on embauche, par exemple, plutôt comme des indépendants qu'en tant qu'employés ?

Effectivement, une étude de l'université de Stanford [Canaries in the coal mine, publiée en aout 2025] dirigée entre autres par un célèbre économiste [Erik Brynjolfsso], a utilisé des données de Claude [le moteur d'Anthropic], et a pondu cette estimation disant que les jeunes actifs exerçant les professions les plus exposées à l'IA ont connu une baisse relative de leur emploi de 13%. A cette occasion, ils ont réalisé un impressionnant travail de façonnage de l'opinion publique et de la presse. Il faut aussi noter que Dario Amodei, le patron d'Anthropic, a annoncé les résultats de ce rapport un an avant sa sortie officielle.

Mais pour commencer, il y avait des problèmes de méthodologie. Pour avoir une appréciation de la réalité et de la précision de cette estimation, il aurait fallu, pour réaliser cette étude, non seulement aller voir les bulletins de salaire, mais aussi regarder ce qui se passe du côté des achats dans les entreprises concernées. Car de plus en plus, une partie de la masse salariale s'est effectivement déplacée, sous la forme d'achats de travail freelance ou de services d'entreprises individuelles... Et c'est là que l'on retrouve les emplois des jeunes. En interne, ils coutent en effet beaucoup plus cher aux entreprises qu'en tant qu'indépendants, car il faut en particulier les former. C'est une tendance que l'on observe depuis plusieurs décennies, dans plusieurs pays. Moins en France cependant, toujours du fait de la protection sociale... Qui plus est, qui dit freelances, dit plateformes de recrutement spécialisées. Il faudrait aussi regarder dans quelle mesure cette prétendue substitution des profils junior par l'IA n'est pas juste une forme de plateformisation de l'emploi des jeunes.

Est-ce que cela signifie que l'IA est utilisée comme coupable idéal ? Cette fois sur la disparition de l'emploi des juniors ?

Oui, mais bien avant l'arrivée des LLM, dès les années 90, on a eu ce discours sur la fin du travail, qui expliquait que l'automatisation était là, que l'on ne pouvait pas s'y opposer, car c'est le progrès, et qu'il faut donc accepter les conditions de plus en plus dégradées que l'employeur va proposer. Et y compris quand il s'agit de la perte de 30 000 collègues ! Il faut cependant souligner que toutes les technologies ne sont pas créées de façon égale. La GenAI, par exemple, est vraiment plus défectueuse que d'autres parce qu'il y a énormément de doutes sur les prétendus gains de productivité qu'elle apporterait. D'autant qu'elle produit beaucoup d'AI slop, c'est-à-dire de codes écrits très rapidement par exemple, que l'on passe des mois à déboguer et à réécrire.

Votre sujet de recherche principal, c'est le digital labor, dont les travailleurs du clic font partie. Et avec l'IA, ce sont désormais les travailleurs de la data. Mais de quoi parle-t-on exactement ?

Pour commencer, les IA qui génèrent des contenus texte ou vidéo doivent être entraînées pour ce faire. Et il faut produire des exemples. Donc, finalement, les premiers travailleurs du clic, ce sont les producteurs de contenu. Les créateurs, les influenceurs qui ont partagé depuis des années sur les plateformes, les médias sociaux, etc. C'est cette collecte qui a commencé dès le milieu des années 2010 à alimenter deux grands corpus utilisés par OpenAI, d'un côté, et par Anthropic et d'autres, de l'autre. Ce sont les premiers travailleurs du clic, même s'ils n'ont pas été rémunérés, et le plus souvent pas prévenus que l'IA utilisait leur production. Plutôt que de demander à chaque créateur s'il pouvait utiliser son contenu, une entreprise comme OpenAI préfère l'utiliser, et le cas échéant, payer s'il y a une action en justice d'écrivains, de journalistes, etc. Le calcul est assez simple pour elle. Et aujourd'hui, pour moi, tout professionnel qui produit du service, qui travaille dans le tertiaire est au moins en partie devenu un travailleur du clic.

Par ailleurs, l'intégration de ces contenus par les IA n'est pas automatique. Quelqu'un doit préparer, annoter, parfois enrichir les données. Ce sont ces personnes que l'on appelle les travailleurs de la donnée. Ils sont de plus en plus visibles et nombreux, et on commence à les situer géographiquement. Ils se trouvent à peu près toujours dans les mêmes pays qui ont une force de travail jeune, éduquée, et un marché du travail dans lequel on n'arrive pas à allouer les meilleurs aux meilleurs emplois. Et ils résident dans des pays ayant un droit du travail peu protecteur des travailleurs. Autrement dit des pays du sud global, de la partie majoritaire du monde démographiquement. Ce ne sont pas forcément uniquement les pays les plus pauvres, mais des régions avec une forte tradition historique liée à la délocalisation. On parle du Bangladesh, d'autres pays d'Asie du Sud, du Kenya, de Madagascar, avec une forte population jeune, éduquée, habituée à travailler en tant qu'agent de la délocalisation, et des lois qui favorisent l'investissement étranger. Ce constat n'a pas changé depuis le début des années 2020, s'est renforcé avec la pandémie. La Banque mondiale fait état de plusieurs centaines de millions de personnes [Dans un rapport de 2023, la Banque mondiale estimait le nombre d'« online gig workers » dans le monde, soit des travailleurs en ligne au service de l'économie numérique, à entre 154 à 435 millions, NDLR)] ! Et même si je n'y crois pas à 100%, l'effectif est clairement de plus en plus important chaque année et cela impose de s'interroger sur le sujet.

Outre cet impact sur le travail, vous évoquez le croisement entre les enjeux sociétaux liés à l'IA, ces personnes qui travaillent sur la donnée, et son impact environnemental...

Effectivement, à partir de 2017, nous avons commencé à explorer les lieux centraux de la production de données pour l'IA. Avant même la vague des LLM donc, on avait d'énormes bassins de production de masse d'IA dans certains endroits, concentrés dans l'hémisphère sud. En 2018, j'étais en Bolivie, et j'ai interviewé un certain nombre de travailleurs de la donnée, qui entrainaient des IA. Et à quelques centaines de kilomètres de là, il y avait un lac salé où on produisait du lithium. C'est la même chose au Chili, à Madagascar... Nous avons interviewé des personnes qui travaillaient sur la donnée, et à quelques kilomètres, se trouvaient des mines où on produisait de l'aluminium et du cobalt. Autant de minéraux nécessaires aux datacenters, aux batteries, etc. Nous avons commencé à formuler cette hypothèse d'une double empreinte environnementale et sociale de l'intelligence artificielle. Elle produit des externalités négatives autant sur le travail, pas en remplaçant des travailleurs, mais en mettant au travail un nombre impressionnant de travailleurs précaires du clic, et de l'autre, son empreinte environnementale qui se concrétise par le gâchis de ressources naturelles, comme l'eau, mais aussi par une production accrue de minerais et ressources naturelles avec des externalités négatives importantes et reconnues.

Cela devient une question de RSE, de devoir de vigilance, non seulement pour les entreprises qui produisent l'IA, mais aussi pour celles qui l'achètent, avec une forte probabilité, à un gros cabinet de conseil ou directement à un des Gafam. Et même si nous n'avons plus cette directive européenne [la CSRD, NDLR] qui n'a même pas eu le temps d'être transposée dans les différents pays membres, parce qu'elle a été grosso modo sabotée par la directive omnibus, il reste des lois nationales dans des pays comme la France, l'Allemagne, l'Angleterre, au moins pour les grandes entreprises.

Quelles évolutions anticipez-vous, en particulier à l'heure de la généralisation de l'IA ?

Je peux dire que ce que l'on observe depuis près de 10 ans maintenant se confirme. Mais j'exprimerais plutôt un double souhait, du point de vue social et du point de vue scientifique. Sur le plan scientifique d'abord. L'IA, telle que produite aujourd'hui, est largement basée sur l'apprentissage automatique, le machine learning. Mais il y a d'autres paradigmes scientifiques, comme les approches symboliques, qui ne sont pas basées sur les données, mais sur les règles. Et j'aimerais voir ce changement de direction dans la recherche.

Du côté social, c'est plus un constat qu'un souhait. Il y a beaucoup de résistance de la part des corps intermédiaires, des pouvoirs locaux. D'une part, face à la généralisation de cette intelligence artificielle, qui devient un outil de chantage, menace, discipline, etc., et d'autre part, face aux conditions de travail des prolétaires de l'intelligence artificielle, en quelque sorte. Beaucoup de voix commencent à contester l'idée que l'automatisation se solde par un remplacement des emplois. Par ailleurs, partout dans le monde, on commence à voir des grèves de travailleurs de la donnée au service d'Alphabet, par exemple. On arrive à bientôt trois ans de lutte des travailleurs de la donnée au Kenya. Même en Europe, les travailleurs de la data de Tiktok organisent des actions syndicales depuis un an en Allemagne ou en Angleterre.

Mais si ces actions syndicales durent depuis plus d'un an, ce n'est peut-être pas très bon signe ?

Souvent, ce ne sont cependant pas de simples grèves. Elles s'accompagnent d'actions en justice. Sans oublier qu'une grève peut aussi déboucher sur une campagne syndicale plus importante.

Aujourd'hui, tout le monde utilise l'IA, sans avoir conscience la plupart du temps de ces enjeux. Est-ce que ce n'est pas aussi un sujet plus large d'acculturation ?

Pour commencer, je vais dire que je fais ma part. Mais plus globalement, cela doit être une prise de conscience collective. Il n'y a pas de solution individuelle à un problème systémique. Le fait que de plus en plus de gens aient conscience de ces externalités négatives ne garantit pas qu'ils sachent individuellement mettre en place des stratégies efficaces pour y remédier. Il y a des limites à la prise de conscience collective, si elle ne s'accompagne pas d'une action systémique qui entraine à son tour une action politique.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis