« LES GENS SONT SOUVENT curieux de savoir combien d'énergie consomme une requête ChatGPT », a écrit Sam Altman , PDG d' OpenAI , dans un long article de blog publié la semaine dernière. Une requête moyenne, écrit Altman, consomme 0,34 wattheure : « À peu près la consommation d'un four en un peu plus d'une seconde, ou celle d'une ampoule à haute efficacité en quelques minutes. »
Pour une entreprise comptant 800 millions d'utilisateurs actifs hebdomadaires (et en constante augmentation ), la question de la consommation énergétique de toutes ces recherches devient de plus en plus pressante.
Cependant, les experts affirment que le chiffre d'Altman n'a pas beaucoup de sens sans un contexte public plus détaillé d'OpenAI sur la manière dont il est parvenu à ce calcul, notamment la définition d'une requête « moyenne », l'inclusion ou non de la génération d'images, et la prise en compte ou non par Altman de la consommation énergétique supplémentaire, comme celle liée à l'entraînement des modèles d'IA et au refroidissement des serveurs d'OpenAI.
Par conséquent, Sasha Luccioni, responsable climat chez Hugging Face, une entreprise d'IA, n'accorde pas beaucoup d'importance au chiffre d'Altman. « Il aurait pu le sortir de son cul », dit-elle. (OpenAI n'a pas répondu à une demande d'informations complémentaires sur la manière dont il est arrivé à ce chiffre.)
Alors que l'IA envahit nos vies, elle promet également de transformer nos systèmes énergétiques, augmentant les émissions de carbone au moment même où nous luttons contre le changement climatique. Aujourd'hui, un nouveau corpus de recherche, en pleine expansion, tente de chiffrer précisément la quantité de carbone que nous émettons réellement grâce à l'utilisation de l'IA.
Cet effort est compliqué par le fait que des acteurs majeurs comme OpenAI divulguent peu d'informations environnementales. Une analyse soumise à un examen par les pairs cette semaine par Luccioni et trois autres auteurs examine la nécessité d'une plus grande transparence environnementale dans les modèles d'IA. Dans la nouvelle analyse de Luccioni, elle et ses collègues utilisent les données d' OpenRouter , un classement du trafic des modèles de langage à grande échelle (LLM), pour constater que 84 % de l'utilisation des LLM en mai 2025 concernait des modèles sans aucune divulgation environnementale. Cela signifie que les consommateurs choisissent massivement des modèles dont les impacts environnementaux sont totalement inconnus.
« Je suis stupéfait qu'on puisse acheter une voiture et savoir combien elle consomme, alors que nous utilisons tous ces outils d'IA au quotidien et que nous ne disposons d'aucun indicateur d'efficacité, de facteurs d'émission, rien du tout », déclare Luccioni. « Ce n'est ni obligatoire, ni réglementaire. Compte tenu de la situation actuelle face à la crise climatique, cela devrait être une priorité pour les régulateurs du monde entier. »
En raison de ce manque de transparence, explique Luccioni, le public est exposé à des estimations absurdes, mais prises pour argent comptant. Vous avez peut-être entendu dire, par exemple, qu'une requête ChatGPT moyenne consomme dix fois plus d'énergie qu'une recherche Google moyenne. Luccioni et ses collègues attribuent cette affirmation à une déclaration publique de John Hennessy, président d'Alphabet, la société mère de Google, faite en 2023.
L'affirmation d'un membre du conseil d'administration d'une entreprise (Google) concernant le produit d'une autre entreprise avec laquelle il n'a aucun lien (OpenAI) est pour le moins ténue. Pourtant, l'analyse de Luccioni révèle que ce chiffre a été répété à maintes reprises dans la presse et les rapports politiques. (Alors que j'écrivais cet article, j'ai reçu une proposition contenant exactement cette statistique.)