Craignant que ses employés envoient des données sensibles dans ChatGPT et les autres IA génératives, Samsung fixe de nouvelles règles. Les chatbots ne sont plus autorisés sur les appareils professionnels.

Aux grands maux, les grands remèdes. Confrontée à une fuite d’informations sensibles dans ChatGPT, l’entreprise sud-coréenne Samsung a décidé de bannir purement et simplement l’accès au chatbot pour son personnel. C’est ce que révèle Bloomberg dans son édition du 2 mai 2023, en s’appuyant sur un mémo interne que le média a pu consulter.

Les restrictions édictées par le géant asiatique des nouvelles technologies visent, à vrai dire, les intelligences artificielles génératives et pas que l’agent conversationnel conçu par OpenAI. La société entend aussi restreindre l’usage de ChatGPT sur Bing (le moteur de recherche utilise une version plus évoluée du chatbot), ainsi que Google Bard, un concurrent direct.

Éviter d’envoyer des données confidentielles dans ChatGPT

À l’origine du serrage de vis décidé par le groupe basé à Suwon se trouve une erreur commise par des ingénieurs. En utilisant ChatGPT, ils ont malencontreusement mis des données confidentielles dans le chatbot — il s’agit de code source interne, mais dont le rôle et la portée ne sont pas clairs. La mauvaise manipulation a eu lieu au début du mois d’avril.

Les nouvelles règles concernent à la fois les matériels professionnels (ordinateurs, tablettes, téléphones), mais aussi les équipements personnels. Dans le premier cas, l’utilisation des IA génératives est interdite. Dans le cas des appareils privés, il s’agit plutôt d’une recommandation de faire très attention à ce qui est écrit dans les IA génératives, pour éviter une bévue similaire.

Apporter la démonstration qu’un partage de données sensibles a eu lieu sur un service d’intelligence artificielle générative n’est pas chose aisée, surtout si cela a lieu depuis un matériel personnel. Cependant, Samsung a néanmoins prévenu que ce genre d’écart, s’il est prouvé, peut amener jusqu’au licenciement, en fonction de la gravité de la fuite.

ChatGPT est interdit aux agents de la mairie de Montpellier // Source : Numerama
Samsung prend des mesures pour éviter un mésusage des IA génératives par ses employés. // Source : Numerama

La crainte de Samsung, partagée par d’autres compagnies, est que les IA génératives finissent par absorber ces informations sensibles, les digèrent puis les régurgitent à d’autres internautes, en fonction des requêtes qu’ils passent. Les outils comme ChatGPT peuvent utiliser les informations partagées par le public pour continuer l’entraînement de leurs algorithmes.

Une fois sur les serveurs opérés par ChatGPT ou un autre service d’IA générative, les données sont réputées être difficiles à supprimer. Une difficulté qui concerne aussi les informations personnelles, d’ailleurs, ce qui risque de compliquer le bon respect du RGPD par OpenAI. En la matière, l’Italie a adressé un coup de semonce à ChatGPT, qui a pris plusieurs engagements depuis.

Samsung est la partie émergée de l’iceberg, et l’impair commis par ses ingénieurs est un problème plus large, et en devenir. En début d’année, une société de cybersécurité a mené l’enquête sur les pratiques de certains employés. Il est ressorti que plusieurs dizaines de milliers d’entre eux, poussé par la curiosité, ont utilisé des données d’entreprise, sans précaution.

Dans leur intérêt, et pour éviter des problèmes futurs, le fonctionnement des IA génératives va certainement devoir évoluer aussi. On l’a vu récemment avec ChatGPT : OpenAI a dévoilé fin avril un mode dans le chatbot qui ne conserve pas l’historique des discussions. Dans ce cadre, les tchats des internautes ne serviront pas entraîner ChatGPT.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !