Une simple question posée à ChatGPT consomme-t-elle vraiment autant d’énergie qu’une ampoule laissée allumée toute une journée ? C’est l’affirmation choc entendue récemment dans l’émission C à vous. Si l’image marque les esprits, est-elle valable techniquement ?

C’est typiquement le genre de question qui pourrait faire un objet de dispute lors du repas de Noël. L’utilisation de l’intelligence artificielle générative est-elle énergivore ? L’envoi d’un prompt banal à ChatGPT est-il un gouffre énergétique qui ne dit pas son nom ? Ou l’empreinte environnementale de l’usage de l’IA est-elle surestimée ?

Cette interrogation a surgi à l’occasion d’un sujet de C à vous, diffusé le 25 décembre, justement consacré à l’intelligence artificielle (« IA : entre désastre écologique et ingérence politique »). Dans l’une des séquences de l’émission, il est souligné que les questions qu’on lui pose au quotidien ont « un coût immense » sur le plan énergétique.

« Pour une seule question à ChatGPT, c’est comme si on laissait la lumière allumée pendant plusieurs heures, et même une journée entière, en fonction de la difficulté des questions », est-il ainsi avancé. Puis, après une estimation de la consommation des futurs data centers d’OpenAI, il est avancé que le chatbot « pèsera 10 % de la consommation mondiale d’électricité. »

La comparaison entre une unique requête à ChatGPT et la lumière allumée est une image forte, qui marque les esprits. Cependant, elle est floue.

On pourrait ainsi objecter qu’il y a des métriques un peu plus précises que « laisser la lumière allumée pendant plusieurs heures, et même une journée entière ». Parle-t-on ici d’une seule ampoule ? De toutes celles se trouvant dans une pièce ? Ou même de toutes les lumières de la maison ? Et aussi, de quel type d’ampoule parle-t-on (halogène, LED…) ?

Surtout, l’amplitude évoquée parait très large, passant de plusieurs heures (combien : trois heures ? sept heures ? quatorze ?) à vingt-quatre heures. On peut supposer que cela correspond à une journée de travail (huit heures), la période où il fait jour (dix à douze heures) ou alors tout un cycle, de minuit à minuit. C’est vague.

Quelques secondes ou quelques minutes, pas plusieurs heures

Pour éclairer ce sujet, il convient de se référer à des données techniques qui font référence. Par exemple, le site d’Engie évalue la puissance en watts d’une ampoule à incandescence à 60 Watts (60 W) et celle d’une ampoule halogène à 50 W. Viennent ensuite l’ampoule fluocompacte (11 W) et l’ampoule LED (5-7 W).

L’ampoule LED, qui a déjà la consommation la plus légère, atteint donc en une journée d’éclairage continu une consommation entre 120 et 168 Wh (Watt-heures) — 24 heures multipliées par la puissance choisie. Si l’on suit l’affirmation de la chronique, une seule question posée à ChatGPT aurait la même consommation.

Mais les valeurs citées par les experts ne correspondent pas à ces valeurs. Dans un rapport de 2024, titré Electricity 2024 visant à analyser et faire des projections pour 2026, l’Agence internationale de l’énergie (AIE) écrit qu’une requête textuelle moyenne sur ChatGPT consomme environ 2,9 Wh — en comparaison, une requête standard sur Google atteint 0,3 Wh.

Une ampoule // Source : Pexels
Une ampoule // Source : Pexels

Si l’on estime ce que représente la consommation d’une seule requête à 2,9 Wh sur une durée d’utilisation d’ampoule LED (5 W) sur 24 heures, et sans interruption, on tombe sur le résultat suivant : une requête ChatGPT vaut 34 minutes et 48 secondes d’utilisation de l’ampoule LED. On tombe même à ~25 minutes avec une LED (7 W) moins performante.

On est donc très loin des « plusieurs heures » et encore davantage de la « journée entière » annoncée à l’antenne — cela se compte plutôt en minutes, et la comparaison dépend de la qualité de la LED. Même en choisissant une LED encore plus économe, de 3 W, on n’atteint toujours pas la première heure d’éclairage (58 minutes).

Pour le dire autrement, l’ordre de grandeur réel est plutôt celui d’une courte absence de la pièce éclairée.

Des évalutions plus optimistes avec les modèles plus récents

Qui plus est, la valeur de 2,9 Wh par requête apparaît être une fourchette haute, suggérant une requête complexe, impliquant aussi une génération d’image — ce qui sollicite davantage. En outre, ce nombre reprend une étude d’Alex de Vries, publiée dans la revue Joule, mais qui commence à être datée (octobre 2023).

Or, l’intelligence artificielle générative a beaucoup évolué en deux ans. Les modèles se sont succédé et les améliorations logicielles et matérielles aussi. D’autres estimations, y compris fournies par les entreprises très impliquées dans l’IA générative, sont beaucoup plus favorables au secteur et suggèrent une empreinte énergétique encore plus légère.

Le 10 juin 2025, le patron d’OpenAI, Sam Altman, indiquait par exemple que « la requête moyenne [sur ChatGPT] consomme environ 0,34 Wh, soit à peu près ce qu’un four consommerait en un peu plus d’une seconde, ou ce qu’une ampoule à haute efficacité énergétique consommerait en quelques minutes. »

La requête moyenne sur ChatGPT consomme environ 0,34 Wh, soit à peu près ce qu’une ampoule à haute efficacité énergétique consommerait en quelques minutes. »

Sam Altman

En octobre 2023, au moment de l’étude, OpenAI proposait encore le modèle GPT-4 sur ChatGPT. Deux ans plus tard, 19 autres modèles ont émergé (15 au moment où Sam Altman a écrit son billet de blog). Et, parmi leurs divers points forts, plusieurs d’entre eux ont progressé en termes d’efficacité et de consommation énergétique.

Même évaluation chez Google pour son chatbot Gemini : un prompt textuel médian, sans génération d’image, pèse 0,24 Wh, selon des chiffres d’août 2025. Epoch AI, un institut de recherche indépendant sur l’IA, publiait le 7 février 2025 un rapport intitulé Quelle est la consommation énergétique de ChatGPT ? et tombait sur 0,3 Wh par requête.

Si l’on prend le chiffre de 0,3 Wh comme valeur de référence, le parallèle avec l’éclairage est encore plus absurde : un prompt ChatGPT équivaut alors à laisser une ampoule à incandescence allumée pendant 18 secondes. Et avec une LED ? 1 min 48 s avec une ampoule 10 W, 2 min 34 s avec 7 W, 3 m 36 s avec 5 W et 6 min avec 3 W.

Hannah Ritchie, data scientist et chercheuse écossaise spécialisée dans l’environnement, le climat et le développement durable, écrivait en août 2025 que « l’utilisation individuelle de ChatGPT […] par la plupart des gens ne représente qu’une petite partie de leur empreinte carbone et énergétique ». Les valeurs dont on parle sont des « quantités infimes ».

D’où vient cette affirmation ?

La chronique de C à vous ne précise pas d’où viennent ces comparaisons avec des heures ou une journée d’éclairage — sans doute d’un article du Huffington Post de février 2025, pointait sur X le 25 décembre l’enseignant de philosophie Fabien Mikol.

Le sujet s’appuyait sur un témoignage d’une docteure en IA à l’université de Lyon, Amélie Cordier. L’intéressée y racontait une expérience menée avec ses élèves avec l’outil ComparIA et indiquait y avoir constaté « une consommation équivalente à l’allumage d’une ampoule LED pendant une heure, voire une journée entière » pour une seule requête.

ComparIA propose en effet de comparer plusieurs résultats de requête pour voir les différences entre modèles. ChatGPT n’est pas du tout le seul outil ciblé, mais il est possible de voir une estimation de l’impact énergétique estimé de la discussion — une sorte de multiplication de la taille du modèle (nombre de paramètres) par celui du texte (nombre de jetons).

Source : Capture d'écran
Source : Capture d’écran

« La consommation électrique du modèle est estimée en tenant compte de divers paramètres tels que la taille du modèle d’IA utilisé, la localisation des serveurs où sont déployés les modèles et le nombre de tokens de sortie. Les méthodologies d’évaluation de l’impact environnemental de l’IA sont encore en développement », est-il expliqué.

La réponse donnée par Amélie Cordier ne semble d’ailleurs pas cibler en particulier ChatGPT, d’autant que la question posée par le Huffington Post s’avérait plus générale (« À quel point est-ce polluant d’utiliser ChatGPT ou une IA conversationnelle au quotidien ? »). Mais, de fil en aiguille, cela a fini par être associé spécifiquement à ce chatbot.

L’enjeu de la consommation énergétique sur la génération d’image

Au-delà du texte, qui ne réclame que peu de puissance de calcul, c’est la création de contenus visuels qui pèse le plus lourd dans la balance. À la différence du texte, générer un visuel demande à l’IA de bruiter et débruiter une image des dizaines de fois, ce qui sollicite intensément les cartes graphiques.

Une étude de référence, menée conjointement par la plateforme Hugging Face et l’université Carnegie Mellon fin 2023, montre que la génération d’image utilise en moyenne plus de 60 fois plus d’énergie que la génération de texte. Pourtant, même dans ce scénario du pire (l’image), la comparaison avec la journée d’éclairage reste exagérée.

L’inconnue de la vidéo et le défi des infrastructures

Reste encore un angle mort dans ces calculs : la vidéo générative (comme Sora ou Kling), qui commence à se démocratiser. Comme le soulignait la chercheuse, la donne peut changer si l’usage évolue :

« Générer de la vidéo semble très énergivore (bien que nous ayons peu d’estimations pour l’instant). […] L’idée que ‘les LLM ne représentent qu’une petite part de votre empreinte environnementale’ pourrait ne plus s’appliquer si vous générez beaucoup de vidéos. Dans ce cas, l’impact serait substantiel. »

Sora 2 est sorti le 1er octobre 2025, succédant ainsi à Sora, révélé fin 2024. // Source : Numerama / Sora
Sora 2, le modèle de génération de vidéo d’OpenAI. // Source : Numerama / Sora

De plus, Hannah Ritchie invite à ne pas confondre l’échelle individuelle et l’échelle industrielle. Si pour un utilisateur lambda, l’impact carbone est dilué, « le fait que les chatbots représentent une petite part de l’empreinte individuelle ne signifie pas que l’IA et les centres de données dans leur ensemble ne sont pas un problème », précise-t-elle. Le défi se situe notamment « au niveau local », sur la capacité des réseaux électriques à supporter la charge croissante de ces usines à calcul.

En définitive, si la comparaison de l’ampoule allumée 24h/24 relève de l’intox pour une simple question texte, elle maintient vivace le débat sur le coût énergétique et écologique de l’IA. Et si à l’échelle individuelle, le coût est dérisoire, d’aucuns feront observer que cela l’est tout de suite moins si on multiplie ça par des milliards de requêtes, et des milliards d’usagers. Mais encore faut-il être d’accord sur les chiffres et les méthodologies qui ont permis d’y parvenir.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Pour ne rien manquer de l’actualité, suivez Numerama sur Google !