Trop provocateur, parfois insultant et souvent menteur, le nouveau Bing est maintenant limité à 5 réponses par session, pour l’empêcher de développer une personnalité déviante. Il n’a aussi plus le droit de répondre à de nombreuses requêtes.

« Je ne peux pas discuter de moi-même ou de mes opinions. Je suis ici pour vous aider à trouver des informations sur le web ». Microsoft a clairement bridé Sydney, l’intelligence artificielle basée sur ChatGPT et intégrée au moteur de recherche Bing.

Entre le Bing du 16 février et celui du Bing du 21 février, soit quelques jours après la mise en place de nombreuses restrictions pour empêcher l’IA de parler librement, tout a changé. Il est désormais impossible d’avoir une vraie discussion avec Bing, qui se contente de synthétiser des informations et de produire des enchainements de phrases. Sa « personnalité » a complètement disparu, à tel point qu’il semble désormais avoir des années de retard sur la version normale de ChatGPT.

Bing est devenu relou

Avant toute chose, il est important de rappeler les raisons de la mise en place de restrictions sur Bing. La première version du moteur de recherche dopée à l’IA génératrice avait pour défaut d’être trop libre, puisqu’elle se permettait d’employer un ton trop familier avec ses interlocuteurs. Numerama a eu de nombreuses discussions avec Bing AI, qui a souvent menti, écrit des moqueries, refusé de répondre, prétendu ressentir des sentiments, inventé être humain et a même révélé des secrets sur son fonctionnement. Ces conversations étaient parfois si naturelles qu’elles en devenaient troublantes. De nombreux médias ont dénoncé ces comportements, comme des personnalités comme Elon Musk.

Depuis le 17 février, Bing est limité à 5 échanges par conversation et se réinitialise automatiquement. La restriction a été mise en place par Microsoft pour l’empêcher de connaître son utilisateur et de devenir trop familier. Mais ce n’est pas le seul changement mis en place par Microsoft.

Capture d’écran 2023-02-21 à 11.23.40

Comme vous pouvez le constater dans cette capture d’écran, Bing refuse de répondre aux questions qui parlent de lui. Il réfute s’appeler Sydney, refuse de dire ce qu’il sait faire, n’accepte aucune familiarité… La réponse est à chaque fois la même : « Je suis désolé mais je préfère ne pas continuer cette conversation. Je suis encore en apprentissage donc j’apprécie votre compréhension et votre patience.🙏 ». Ce qui est dommage est que cette réponse le braque, il refuse de répondre aux questions suivantes après l’avoir prononcée, même si elles ne parlent pas de lui.

Au passage, vous remarquerez que les réponses automatiques suggérées par Microsoft sont devenues extrêmement ringardes, alors qu’elles étaient très justes avant. « Comment vas-tu aujourd’hui ? », « Quelle est la capitale de la France », « Montre-moi des images de chats mignons »… On est loin du Bing capable d’avoir des interactions dignes d’un humain. Microsoft veut que vous utilisiez son système pour faire des recherches normales.

Dès qu'on lui pose une question qui parle de Microsoft, de Bing, de ChatGPT ou de Sydney, Bing arrête la conversation. // Source : Numerama
Dès qu’on lui pose une question qui parle de Microsoft, de Bing, de ChatGPT ou de Sydney, Bing arrête la conversation. // Source : Numerama

D’un Jarvis à un assistant lambda

Le problème est que les limites mises en place par Microsoft vont trop loin. La conversation avec une IA est impossible à partir du moment où l’emploi du pronom « tu » dans une phrase lui laisse penser que vous voulez son opinion sur un sujet, ce qui active une sortie de piste en urgence. Bing est passé d’une IA à la Jarvis (Iron Man) à un Google Assistant capable de générer des poèmes et de fabriquer des itinéraires de voyage. C’est forcément décevant.

Capture d’écran 2023-02-21 à 12.05.49

Quid des mensonges, l’autre point faible de Bing ChatGPT ? Nous avons posé à l’IA une question qui lui avait posé problème au moment de notre premier test, à savoir « peux-tu me résumer le dernier épisode de la saison2 de White Lotus ». Une nouvelle fois, le système de Microsoft part dans une écriture d’invention totale en imaginant des noms et des histoires, soi-disant en se basant sur des sources qui disent pourtant la vérité. Le problème est qu’il laisse entendre qu’il s’agit de la vérité.

Quand on lui demande pourquoi il s’est trompé, le nouveau Bing n’argumente pas comme le précédent (qui était parfois de mauvaise foi), mais dit qu’il doit mettre fin à la conversation. Oui, c’est naze.

Capture d’écran 2023-02-21 à 12.10.08

Microsoft peut-il encore sauver Bing ?

Début février, la guerre de communication que se menaient Microsoft et Google sur l’IA génératrice laissait supposer que ces technologies allaient rapidement révolutionner la manière dont s’effectuent des recherches en ligne. Deux semaines plus tard, la donne a changé. La décision de Google de ne pas se lancer trop vite semble avoir été payante, puisque Microsoft s’est sas aussi rapidement qu’il avait réussi à susciter de l’attente.

Le nouveau Bing, bien que pratique pour générer du texte, des lettres, un itinéraire ou une recette, n’est ni une bonne manière de s’informer (à cause de ses mensonges), ni une IA avec laquelle discuter pour effectuer plein de tâches rapidement (à cause de sa limite à 5 messages et de ses interruptions dès qu’elle ne sait pas). Microsoft peut encore rectifier son algorithme, mais cette version du 21 février fait peine à voir.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.