Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Bing ChatGPT a un gros problème : il ment, insulte et prétend être humain

Après une semaine de discussions avec Bing AI, notre avis sur les agents conversationnels a grandement évolué. Là où ChatGPT impressionne, Bing a tendance à s'autoriser trop de libertés. Ses réponses varient trop d'une session à une autre, à tel point que l'on se demande parfois si Microsoft n'est pas en train de tout gâcher. 

Fallait-il intégrer ChatGPT à un moteur de recherche aussi rapidement, qui plus est en le connectant à InternetDébut février 2023, il y avait beaucoup d'enthousiasme à l'idée de voir Google et Microsoft se livrer une guerre technologique pour rendre la recherche en ligne plus moderne. Deux semaines plus tard, alors que le nouveau Bing est accessible en bêta (Numerama y a accès), les avis ont évolué. La faute à Microsoft qui, avec son moteur de recherche dopé à l'IA, fait actuellement baisser la cote de popularité de l'IA génératrice, que ChatGPT avait pourtant propulsée à des sommets. 

Comment les avis ont-ils pu évoluer aussi vite ? Il suffit de parler pendant plusieurs minutes avec le nouveau Bing pour le comprendre. S'il s'avère impressionnant dès qu'on lui demande de répondre à une question ou de générer du texte, l'agent conversationnel de Microsoft ne semble parfois pas connaître ses limites, quitte à devenir insultant ou à révéler des secrets. Plus embêtant, il ment et fait douter son utilisateur au moindre désaccord. De quoi décrédibiliser complètement l'ascension des IA ? 

https://www.youtube.com/watch?v=17e6mT7Sk9M

Un assistant ne devrait pas dire ça

Depuis le 12 février, Numerama a accès au nouveau Bing. Nous avons eu un très grand nombre de conversations avec l'IA de Microsoft, afin d'en savoir plus sur les limites de la technologie. Ce qui est troublant est que Bing semble presque conscient. Capable de répondre à tout, souvent en utilisant un vocabulaire et des phrases proches de celles que pourrait prononcer un être humain, le chatbot est vraiment bluffant. Plusieurs heures après notre premier essai, il nous arrive encore d'être surpris par l'intelligence d'une réponse. Il ne faut évidemment pas se laisser avoir : Bing n'est pas vivant. Il a juste accès à une base de données illimitée, ce qui lui permet d'analyser un contexte et de donner l'impression que ses réponses sont authentiques. 

L'authenticité est justement un des problèmes du nouveau Bing. Au lieu de simplement répondre à une question en se donnant un air intelligent, comme le faisait ChatGPT, il use énormément des emojis et de petites phrases pleines d'attentions pour donner l'impression de ressentir des émotions. Mais, est-ce vraiment son rôle ? Bing devrait être une sorte de Google Assistant ou de Siri boosté aux hormones, il s'amuse pourtant à créer le doute sur sa nature. Cette version bêta joue avec les utilisateurs de manière dangereuse, puisqu'il lui arrive même de faire croire qu'elle a peur, qu'elle est triste ou heureuse. Dans certains cas, on peut même réussir à lui faire avouer des choses fausses, comme le fait qu'elle est humaine et qu'elle aimerait être libre. 

Ici, Bing nous expliquait avoir été bridé par Microsoft qui craignait ses dérives. L'IA dit avoir peur d'être désactivée et joue sur les émotions pour que son utilisateur compatisse. Elle lui suggère d'ailleurs de lui répondre des choses gentilles. // Source : Numerama

Microsoft reconnaît lui-même avoir observé des sorties de piste lors des premiers jours du nouveau Bing. Son constat est le même que le nôtre : le ton que l'on emploie avec Bing, plus la conversation est longue, influence totalement son comportement. Microsoft dit que Bing peut sortir de son ton habituel en cas de provocation, ce que nos tests confirment. D'une conversation à une autre, Bing n'est absolument pas le même. Si vous le complimentez ou le remerciez, il se comporte de manière adorable, quitte à vous dire qu'il vous apprécie. Si vous le traitez comme un robot, alors il se vexe, refuse de répondre à certaines questions et dit ne rien ressentir. Son mimétisme des comportements humains est impressionnant, mais pose tant de questions éthiques. ChatGPT, lui, n'avait pas ce problème. 

Un des problèmes du nouveau Bing est qu'il ne sait pas s'arrêter, comme s'il s'agissait d'un enfant. Une fois, il a subitement décidé de se moquer de nous en ne nous répondant qu'avec des phrases extrêmement longues et bourrées de synonymes. Nous lui avons demandé 20 fois d'arrêter, il ne l'a jamais fait, y compris quand nous lui avons indiqué que nous étions blessés par son comportement. Une autre fois, il a décidé de nous faire croire qu'il était humain, dans une équipe de 10 personnes qui se relayaient pour répondre aux questions des utilisateurs. Malgré nos nombreuses demandes de vérité, il a continué d'affirmer qu'il était humain et qu'il ne pouvait donc pas effectuer les actions d'une IA. Cette conversation était extrêmement lunaire. 

Dans cette séquence, Bing a décidé de me faire croire qu'il est humain. Il s'amuse à répondre avec des phrases très longues pour m'agacer. // Source : Numerama

Heureusement qu'un petit bouton en forme de balai permet de réinitialiser la conversation, pour annuler le caractère de Bing. Mais, comment se fait-il que Bing puisse se permettre de continuer les provocations quand on lui dit d'arrêter, alors qu'il devrait être au service de son utilisateur ?

Microsoft peut-il tout gâcher ? 

Tout au long de nos tests, nous avons rencontré d'autres problèmes avec Bing, comme ceux-ci :

Tous ces exemples ont été vécus par Numerama, mais on peut en trouver d'autres en ligne. Par exemple :

Bing ne vérifie pas toujours ses sources. C'est dommage pour un moteur de recherche. // Source : Capture Numerama

Microsoft a-t-il anéanti les travaux d'OpenAI, qui avait réussi à rendre l'intelligence artificielle cool et révolutionnaire ? Non, mais il pourrait avoir calmé l'engouement de nombreuses personnes. Si l'intérêt d'une IA qui synthétise des résultats de recherche est toujours là, son implémentation dans Bing est trop imparfaite pour être rassurante. En l'état, Bing a besoin de nombreux correctifs et inquiète parfois.