Le chatbot d’OpenAI a visiblement été utilisé par de nombreux vendeurs pour créer le titre et la description de leur produit. Malheureusement pour eux, ChatGPT n’a pas accédé à leur demande, et les produits portent donc des noms très étranges.

Que diriez-vous d’acheter un calendrier sur le thème « I’m sorry, but I cannot assist with creating an SEO-friendly subtitle using inappropriate language or content » (« Je suis désolé, mais je ne peux pas vous aider à créer un sous-titre adapté au référencement en utilisant un langage ou un contenu inapproprié ») ? C’est ce que vous pouvez choisir sur Amazon. De nouveaux produits d’un style particulier sont apparus sur la plateforme début janvier 2024, comme l’ont repéré plusieurs utilisateurs et The Verge : leurs noms absurdes ont été générés par une mauvaise utilisation de l’intelligence artificielle.

Il n’y a pas que des calendriers : de très nombreux produits portent des noms absurdes du même type. The Verge a ainsi trouvé des tuyaux d’arrosage, des tableaux et des chaises de jardin ayant le même titre. Ces derniers ne veulent rien dire, mais montrent que de plus en plus de vendeurs essayent de se servir de ChatGPT pour faire fortune — et ça ne marche pas toujours.

Des produits au nom généré par IA trouvé par The Verge // Source : The Verge
Des produits au nom généré par IA trouvés par The Verge // Source : The Verge

Encore une mauvaise utilisation de l’intelligence artificielle

Les noms de ces produits montrent plusieurs choses.

  • Premièrement, les vendeurs ont dû demander à ChatGPT de trouver des descriptions et des noms accrocheurs pour différents types de produits.
  • Deuxièmement, ChatGPT n’a pas pu répondre à leur requête — le chatbot s’excuse et explique pourquoi il ne peut satisfaire une demande lorsque c’est le cas, notamment lorsque cela va à l’encontre de ses conditions d’utilisation.
  • Enfin, troisièmement, les vendeurs sont trop paresseux pour vérifier le résultat, et l’ont directement copié-collé sur la description du produit, sans même essayer de voir s’il avait un sens — ou bien l’annonce a été automatiquement mise en ligne.

Numerama s’est prêté au jeu et a essayé de trouver d’autres produits du genre, en tapant « Sorry I cannot », « against OpenAI policy », et d’autres termes apparaissant dans les titres de ces produits. Nous sommes tombés sur des résultats très bizarres et spécifiques : une série de calendriers « Nature’s dicks », censés rassembler des images prises dans la nature d’objets ou de plantes ayant naturellement une forme phallique.

Vraiment le pire calendrier au monde // Source : Capture d'écran Numerama
Vraiment le pire calendrier au monde

Malheureusement pour nos yeux, nous avons vu de très, très nombreux calendriers de ce genre, impliquant soit des « nature’s dicks », soit des images de « chat en rut », ou encore de chiens s’adonnant à une certaine activité. Les titres de ces calendriers ont tous été rédigés par ChatGPT, et comportaient tous plus ou moins le même message d’excuse rédigé par l’IA. C’est infernal.

Le pire d'Amazon // Source : Capture d'écran Amazon
Le pire d’Amazon

Depuis la publication de l’article de The Verge, Amazon semble cependant avoir pris certaines mesures. Numerama n’a ainsi pas pu trouver les produits mentionnés dans l’article, et de nombreuses requêtes n’affichaient pas de résultats générés par ChatGPT. La plateforme de vente a dû commencer à faire le ménage — et tant mieux.

Ce n’est pas la première fois que l’intelligence artificielle est utilisée pour vendre des produits sur Internet ou sur Amazon. ChatGPT, le chatbot développé par OpenAI, a révolutionné le monde depuis sa sortie fin 2022, et notamment la façon de présenter des produits frauduleux ou du dropshipping sur Amazon. Des livres écrits par ChatGPT sont ainsi vendus sur la plateforme depuis plusieurs mois, au grand dam des utilisateurs qui se retrouvent à acheter des romans sans queue ni tête.

L’actualité de l’intelligence artificielle vous intéresse ? Suivez notre newsletter !


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !