Technologies

Seulement 0,03 g de CO2 par requête pour l'IA de Google ? Une estimation biaisée

Seulement 0,03 g de CO2 par requête pour l'IA de Google ? Une estimation biaisée
Après avoir été, pendant de longs mois, muets sur l’impact environnemental de l’IA, les éditeurs délivrent de premières estimations. Mais l’étude de Google sur son IA Gemini souligne les progrès qu’il reste à accomplir. (Photo : Solen Feyissa/Unsplash)

L'étude de Google sur l'impact environnemental de son IA Gemini suscite une vague de scepticisme chez les experts du sujet. Même si ces premiers efforts de transparence ont le mérite d'exister.

PublicitéPubliées fin août, les estimations de Google concernant l'impact environnemental de son IA Gemini ont de quoi interroger. Avec 0,03 g de CO2 et 5 gouttes d'eau par requête, elles sont environ 40 fois plus basses que celles publiées par l'éditeur français Mistral, qui a publié en juillet une analyse du cycle de vie (ACV) de son modèle Large 2 à partir des données de son année et demie d'activité. Déjà critiqué pour son absence de méthodologie détaillée, Mistral s'était toutefois appuyé sur des partenaires et instances reconnus comme le cabinet de conseil sur les enjeux énergie et climat Carbone 4 et l'Ademe (Agence de la transition écologique), ainsi que sur les cabinets d'audits environnementaux du numérique Resilio et Hubblo. Là où Google a préféré la voie d'une « étude endogame qui n'a été relue ou vérifiée par aucun expert externe », comme le souligne Guillaume Pakula, responsable du module Enjeux du changement climatique à Polytechnique, dans un post LinkedIn. « L'étude de Google déforme probablement les résultats antérieurs, ce qui pourrait compromettre la qualité et la crédibilité attendue de Google », assure de son côté Shaolei Ren, professeur à l'Université de Riverside, en Californie, et justement co-auteur, en juin dernier, d'une étude sur la consommation en eau de GPT-3.

Un article publié dans la revue Technology Review du MIT soulève également de sérieuses questions concernant les estimations de Google. Celui-ci met notamment en évidence les éléments manquants dans l'étude du Californien sur la consommation de ressources de son IA, ce qui rend pratiquement impossible toute extrapolation sur les coûts futurs ou les impacts environnementaux de l'IA.

L'estimation de Google concernant la consommation d'eau et d'électricité (cinq gouttes et un quart de wattheure) d'une seule requête textuelle adressée à ses services d'IA « ne reflète pas toutes les requêtes et exclut les cas susceptibles de consommer beaucoup plus d'énergie », comme les images ou les vidéos, écrit Casey Crownhart, auteure de l'article et co-rédactrice d'une analyse beaucoup plus approfondie de l'empreinte énergétique de l'IA pour Technology Review en mai dernier.

PublicitéUne IA de plus en plus protéiforme

L'estimation de Google ne représente en effet que la valeur médiane : la moitié des requêtes textuelles traitées consomment moins d'énergie que la valeur donnée par le géant californien, et l'autre moitié davantage. Mais « nous ne savons rien de la quantité d'énergie requise par ces requêtes plus complexes, ni de la répartition de ces consommations », souligne Casey Crownhart.

Par ailleurs, en choisissant de ne publier que la consommation d'une seule requête, Google donne des indicateurs tendant à minimiser l'impact de son IA. « Nous ne savons pas combien de requêtes Gemini reçoit, nous ne connaissons donc pas l'impact énergétique total du produit », souligne l'article de la Technology Review. Si OpenAI, l'éditeur de ChatGPT, communique ses chiffres de trafic total, affirmant recevoir 2,5 milliards de requêtes quotidiennes, Google se contente de donner un nombre d'utilisateurs actifs mensuels pour Gemini (450 millions). Et ce chiffre ne reflète qu'une fraction de l'impact de l'IA de Google, qui utilise également cette technologie pour fournir des synthèses dans les recherches web et pour rédiger ou synthétiser des e-mails et des SMS, souligne Casey Crownhart. « Ainsi même si vous tentez de réfléchir à votre propre consommation d'énergie [induite par l'IA], la comptabiliser devient de plus en plus difficile », écrit-elle.

Evaluer le coût de l'énergie, estimer sa disponibilité

Un constat qui s'étend évidemment aux entreprises, qui elles aussi paient pour ces services d'IA et, indirectement, pour leur consommation d'énergie et d'eau. Avec l'augmentation du coût de ces intrants, les DSI doivent établir des projections budgétaires en fonction du nombre et de la nature anticipés des requêtes d'IA. S'agit-il de texte, de vidéo ? Majoritairement, leurs utilisateurs effectuent-ils des analyses complexes ou simples ? Si les DSI tentent d'évaluer les coûts qu'engendrent ces usages pour 2026, ils devront multiplier les approximations. Les coûts réels de l'énergie et de l'eau doivent aussi être évalués avant de statuer sur toute décision de réinternalisation. Outre la question de leur capacité à obtenir les composants nécessaires, comme les puces Nvidia, cette décision les obligerait à relever par eux-mêmes les défis liés à l'énergie et à l'eau : non seulement leur coût, mais aussi, selon le lieu d'implantation, leur disponibilité.

« Si, en tant que DSI, vous ne discutez pas avec vos équipes opérationnelles de la prévision de vos besoins énergétiques par rapport à la puissance disponible, commencez dès maintenant, conseille Matt Kimball, vice-président et analyste principal chez Moor Insights & Strategy. Ayant évolué dans le monde IT, je sais à quel point ces organisations peuvent être isolées, l'énergie n'étant qui plus est qu'un poste budgétaire parmi d'autres. Discutez avec l'équipe qui gère l'alimentation, le refroidissement et l'infrastructure de datacenters, du rack jusqu'à la baie, pour mieux comprendre comment utiliser ces ressources au mieux. »

Besoin d'une méthodologie commune

Les éditeurs d'outils d'IA ont largement été critiqués pour leur absence de transparence en matière d'impact environnemental. A l'absence de données chiffrées, succèdent désormais des publications et affirmations difficilement comparables entre elles, faute d'une méthodologie commune dument approuvée par la communauté scientifique. En juin dernier, le Pdg et fondateur d'OpenAI, Sam Altman, a ouvert le bal, en affirmant sur son blog qu'une requête « moyenne » faite à ChatGPT consomme 0,34 wattheure et 0,32 ml d'eau, suivi donc par Mistral (1,14 g de CO2 et 45 ml d'eau pour une réponse de 400 tokens, hors entraînement) et Google.

Si l'impact global de la GenAI reste donc à préciser, notons que les rapports sur le développement durable récents des deux géants du cloud que sont Microsoft Azure et GCP témoignent de l'explosion de leurs émissions de GES (gaz à effets de serre), qu'ils associent directement à leurs activités sur cette technologie.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis