L’intelligence artificielle est désormais largement utilisée pour répondre à un grand nombre de besoins. Mais ChatGPT sert aussi pour certaines personnalités climato-sceptique à justifier leurs propos. Pourtant, on ne peut pas s’appuyer sur le chatbot pour crédibiliser ses idées.

[autolink post="1200230"]ChatGPT[/autolink] est un outil formidable, utilisé pour de très nombreuses tâches. L’intelligence artificielle d’OpenAI peut écrire des textes, remplir des tableaux, faire des résumés, rechercher pour vous certaines informations — mais le chatbot peut aussi être détourné. Récemment, c’est ce certaines personnalités climato-sceptique ont fait.

Le premier n’est autre que Daniel Brisson, le représentant du Parti Populaire du Canada pour le Québec. Le parti, classé à la droite de l’échiquier politique, écrit dans son programme qu’il « n’existe cependant aucun consensus scientifique sur la théorie disant que le CO2 produit par l’activité humaine » — ce qui est faux. Daniel Brisson a pourtant mis en avant cette croyance sur son compte Twitter, le 31 mai 2023, et a même essayé de se servir de ChatGPT pour la crédibiliser.

Des informations détournées

Premièrement, il est important de souligner que les chiffres avancés par ChatGPT sont problématiques. Comme le souligne France Info, le CO2 ne représente bien que 0,04 % de la composition totale de l’atmosphère, mais cela ne suffit pas pour conclure que les humains n’ont rien à voir avec le réchauffement. La concentration de CO2 dans l’atmosphère est ainsi passée de « 280 parties par millions (ppm) en 1850 à environ 420 ppm en 2021 », rappelle le journal. De plus, on sait que cette augmentation est due aux activités humaines, plus particulièrement à la consommation de combustibles fossiles pour la production d’énergie, au transport, ou encore à la déforestation et la modification des terres.

Réchauffement planétaire. // Source : Numerama / Melvyn Dadure
Le réchauffement planétaire est causé par les activités humaines. // Source : Numerama / Melvyn Dadure

En France, c’est le compte Twitter L’Aile à Stick, qui relaie depuis mars 2021 des fake news et des théories complotistes sur le covid, qui s’est servi de ChatGPT pour appuyer son propos. Le 1er juin 2023, quelques heures après Daniel Brisson, il publie sur Twitter une capture d’écran d’une discussion qu’il a eue avec le chatbot.

La conversation tourne également autour du taux de CO2 dans l’atmosphère. Cependant, la question concerne cette fois la comparaison entre le taux actuel, et celui qu’il y avait dans l’atmosphère terrestre « au temps des dinosaures ». Sous la publication, les commentateurs s’accordent pour dire que tout cela est bien la preuve que l’augmentation du CO2 n’est donc pas un problème, et qu’elle serait même bénéfique.

Même si chiffres que donnent ChatGPT sont, là aussi, corrects en soi, ils ne veulent pas dire grand-chose par rapport à la crise climatique actuelle. Outre le fait que la période décrite comme « le temps des dinosaures » soit bien trop longue pour pouvoir être réduite à une seule donnée, la démonstration n’est pas pertinente pour conclure qu’il n’y a pas de problème.

Déjà, parce que les dinosaures étaient des créatures au fonctionnement très différent du nôtre — et surtout, parce que le dérèglement actuel se produit beaucoup plus rapidement que les autres périodes de réchauffement à travers l’histoire. Les changements sont « 10 fois plus rapides » que les autres transformations qui ont eu lieu au cours des 65 millions d’années précédentes, insiste l’université de Columbia. C’est ce changement rapide qui menace d’extinctions « jusqu’à 14% de toutes les espèces animales et végétales sur Terre ».

ChatGPT peut aussi mentir

Au-delà des chiffres et de l’interprétation erronée qu’en font Daniel Brisson et L’Aile à Stick, il est intéressant de voir que ChatGPT sert à justifier leurs idées. Le chatbot est vu comme la preuve ultime que les scientifiques ont tort, et eux, raison. Ce n’est pourtant pas vrai : ChatGPT s’est entraîné sur un énorme corpus de textes, qu’il a appris à « recracher » lors de son entrainement. L’IA n’est donc pas capable d’invalider, ou pas, des consensus scientifiques.

Surtout, il arrive que ChatGPT mente. Le chatbot n’est pas un outil fiable à tous les coups : il lui arrive d’halluciner, c’est-a-dire d’inventer des données complètement fausses, comme Numerama avait pu le voir. Il peut aussi sortir des informations de son contexte, et, dans certaines langues, il peut même reprendre des discours de propagande. Que ChatGPT dise que le réchauffement climatique est une vérité, ou qu’il dise que l’activité humaine n’en est pas responsable, il faut toujours vérifier ses propos.


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.