Maintenant accessible presque dans le monde entier, Bard sera peut-être un nouveau terrain de jeu pour des millions d’internautes. Mais Google rappelle que les conversations passées font partie des données que le groupe récupère, y compris pour entraîner son IA.

Google Bard est désormais disponible presque partout dans le monde, sauf en France. Le chatbot de l’entreprise américaine peut toutefois être testé dès à présent, en lui faisant croire que l’on se connecte, depuis l’étranger — mais cela doit être via un VPN. Cette extension à 180 pays s’accompagne au passage d’une intégration plus poussée de l’agent conversationnel au reste de l’écosystème Google.

Il faut néanmoins retenir trois choses :

  • D’abord, l’outil est expérimental et peut encore faire des erreurs — y compris pour des requêtes plutôt simples.
  • Ensuite, il ne comprend pas le français : vous interagissez avec lui en anglais.
  • Enfin, il faut garder en tête que vos échanges avec Bard sont susceptibles de resservir pour entraîner l’intelligence artificielle du groupe américain.

Ce que les internautes écrivent dans Bard peut servir à Google

C’est ce que Google rappelle dans une foire aux questions disponible sur le site de Bard. Les interactions avec le chatbot font partie d’un lot de données que le groupe récupère, y compris l’adresse IP pour déterminer votre localisation approximative (ce qui est ici faussé si vous utilisez un VPN), vos éventuels retours d’expérience ou bien des données d’utilisation de l’outil.

Mais surtout, Google précise que vos échanges avec Bard sont aussi concernés par cette collecte. « Ces données nous aident à fournir, améliorer et développer les produits, services et technologies d’apprentissage automatique de Google », lit-on dans la FAQ, qui renvoie l’internaute vers des pages plus détaillées sur les règles de confidentialité du groupe.

Bard Une
Le site officiel de Google Bard. // Source : Capture d’écran

Ces échanges incluent les « conversations » que vous avez avec Bard. C’est à avoir bien tête si votre requête pourrait contenir des données personnelles ou bien des informations confidentielles, voire sensibles, provenant par exemple de votre société. En effet, Google peut exploiter ces échanges pour entraîner et affiner son outil, y compris en les faisant analyser par des tiers.

« Nous sélectionnons un sous-ensemble de conversations et utilisons des outils automatisés pour supprimer les informations personnelles identifiables. Ces exemples de conversations peuvent être examinés par des personnes qualifiées et sont conservés pendant trois ans maximum, indépendamment de votre compte Google », développe la FAQ.

Des précautions à prendre pour éviter les erreurs

La pratique de Google n’est ici pas inhabituelle. Dans un autre genre, la société OpenAI prévoit aussi la récupération des échanges que l’on a avec son chatbot ChatGPT pour « pour former et améliorer nos modèles ». C’est pour cela d’ailleurs que la société a fini par lancer une option, désactivée par défaut, qui permet de dire à l’IA de ne pas utiliser son historique pour s’entraîner.

Depuis quelques mois maintenant, on voit apparaître de plus en plus de conseils de prudence quant à l’emploi des chatbots, surtout dans un cadre professionnel. Les textes qui leur sont envoyés peuvent potentiellement ressortir un jour pour d’autres utilisateurs et constituer une infraction des règles de confidentialité de la société de l’employé imprudent.

Ces inquiétudes donnent lieu à des mesures internes, à l’image de Samsung, qui a décidé d’interdire l’accès à ChatGPT sur les terminaux professionnels fournis à son personnel. La société sud-coréenne a aussi édicté des recommandations pour les produits personnels. Le géant asiatique a justement été la victime d’une erreur de quelques ingénieurs, qui ont envoyé du code dans ChatGPT.

une comparateur meilleur vpn numerama

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !