GPT-4 est maintenant disponible à l’utilisation, dans ChatGPT et dans le moteur de recherche Bing. Microsoft en a profité pour intégrer un outil pour partager les réponses du chatbot. Signe qu’il fait un peu moins d’erreurs ?

Un chatbot, ou agent conversationnel, est un programme informatique censé discuter avec un humain, en donnant l’impression d’en être un lui-même, grâce à des propos naturels en apparence. Il utilise des algorithmes et de l’IA, après avoir ingéré d’importantes quantités de données textuelles.

Vous avez généré du texte intéressant avec ChatGPT sur Bing ? Ou la réponse que le chatbot a donnée n’a ni queue ni tête ? Dans un cas comme dans l’autre, vous avez maintenant la possibilité d’en faire profiter d’autres personnes. Dans une note de mise à jour partagée le 17 mars, Microsoft indique avoir fait des ajustements dans l’outil, dont l’ajout d’un bouton de partage.

Le partage des contenus obtenus par ChatGPT sur le moteur de recherche de la société américaine concerne trois réseaux sociaux (Facebook, Twitter et Pinterest). Les textes peuvent aussi être envoyés par courrier électronique ou faire l’objet d’un lien permanent. Un internaute pourra entrer dans une séquence de discussion avec ChatGPT, et poursuivre l’échange.

Page d'accueil pour essayer ChatGPT dans Bing // Source : Bing
Page d’accueil pour accéder à ChatGPT dans Bing. // Source : Bing

Bing de Microsoft utilise GPT-4 pour son chatbot intégré

ChatGPT sur Bing utilise le modèle de langage GPT-4, qui est la dernière génération concoctée par la structure de recherche américaine OpenAI. D’ailleurs, la déclinaison de l’agent conversationnel pour le moteur de recherche utilise GPT-4 depuis le début. Un secret bien gardé : tout le monde supposait qu’il tournait sur GPT-3.5, le modèle de langage dédié à ChatGPT.

L’adjonction d’un bouton de partage consacré aux réponses de cette intelligence artificielle suggère que des mesures appropriées ont été prises pour contenir les ratés de l’outil — sinon, Microsoft vient de tendre un peu plus le bâton pour se faire battre. Il faut dire que l’entreprise a, courant mars, pris une série de mesures pour lui éviter, autant que possible, les sorties de route.

Depuis son lancement public fin novembre 2022, les erreurs et les limites du chatbot ont été très largement documentés dans les médias, parmi les internautes et par les experts en IA. La nouvelle version de GPT-4 est censée être davantage dans les clous — y compris en s’abstenant d’éviter de manipuler ses interlocuteurs, ce qu’une version de test a permis de faire.

Source : Dall-E
Source : Dall-E

Des chatbots performants, mais avec des lacunes

Si de prime abord, les performances des IA génératives comme ChatGPT ont pu être bluffantes, et susciter également de vives inquiétudes (dans les médias, auprès de Google, pour les sites web ou bien les écrivains), plaidant pour un durcissement de la législation et une interdiction à l’école, un reflux sur les capacités réelles de ces outils est également en train d’observer.

« Les IA génératives ne sont ni intelligentes ni conscientes, notait Frédéric Cavazza, conférencier spécialiste de numérique. [Ce sont] juste des modèles statistiques qui s’appuient sur de gigantesques bases de connaissance. Les chercheurs parlent de ‘perroquets stochastiques’ ». Les modèles de langage se fondent en effet sur des probabilités et des statistiques.

Autre nuance, apportée par Jacob Browning, post-doctorant au département d’informatique de l’université de New York et travaille sur la philosophie de l’IA, et Yann LeCun, l’un des spécialistes les plus reconnus en IA (prix Turing 2019 et le chef de l’IA ) Meta, la maison mère de Facebook), dans un papier intitulé Les chatbots d’IA ne se soucient pas de vos normes sociales.

Source : Numerama
L’intelligence artificielle reste encore très superficielle. // Source : Numerama

Dans celui-ci, les deux experts défendent l’idée que la conversation ne se limite pas aux mots ; elle s’appuie aussi sur des normes sociales, parfois implicites, parfois non, qui régissent ce qu’il convient de dire.

Aujourd’hui, les chatbots n’en tiennent pas compte, ce qui a pour effet de les voir tenir des propos offensants, incohérents, malhonnêtes ou faux, en considérant que c’est statistiquement probable — aussi parce que, sur le corpus sur lequel ChatGPT a été entraîné, par exemple, il y a aussi des trolls, de la désinformation et de bêtes erreurs.

« Les chatbots ne conversent pas de manière humaine, et ils n’y parviendront jamais uniquement en disant des choses statistiquement probables. Sans une véritable compréhension du monde social, ces systèmes ne sont que des bavardages inutiles, même s’ils sont pleins d’esprit ou éloquents ». En filigrane, il faudrait aussi que les chatbots perçoivent quand c’est le moment de se taire.


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !