La Maison-Blanche convoque sept entreprises en pointe sur l’IA aux États-Unis. Objectif : les pousser à avoir des pratiques plus prudentes et plus cadrées, en attendant des règles plus strictes.

Un rassemblement qui a des allures de rappel à l’ordre. Devant les avancées très rapides de l’intelligence artificielle, et en particulier son volet « IA générative », la Maison-Blanche réunit sept grandes entreprises américaines du secteur. But de la rencontre avec le président Joe Biden ? Les amener à garder une certaine mesure et un certain contrôle dans cette compétition, qui a de plus en plus l’allure d’une course effrénée et aveugle.

Autour de la table sont donc réunies les sociétés Amazon, Google, Microsoft, Meta (Facebook et Instagram), OpenAI (à qui l’on doit ChatGPT), Anthropic (qui a conçu le chatbot Claude) et Inflection, sans doute la compagnie la moins connue des sept, mais qui a « impressionné » Bill Gates, selon ses propres mots. Ces entreprises proposent des outils de pointe dans l’IA générative, mais qui se sont retrouvés dans diverses controverses.

La Maison Blanche aux Etats-Unis.  // Source : David Mark / Pixabay
La Maison-Blanche accueille les représentants des septs des plus importantes sociétés américaines en matière d’IA. // Source : David Mark / Pixabay

Essentiellement, les reproches faits dans l’IA générative sont de deux ordres : il y a d’une part la justesse de leurs réponses, qui est parfois approximative, voire fausse. Il y a d’autre part le risque d’une désinformation de moins en moins facile à repérer et à contrer. On le voit notamment dans les images de plus en plus réalistes, ou bien plus récemment dans la vidéo et le son — dernièrement, des logiciels permettent de reproduire une voix avec une précision troublante.

Des promesses, avant des règles obligatoires

Les engagements sont construits autour de trois grands axes :

  • Garantir la sécurité des produits avant de les introduire dans le public ;
  • Construire des systèmes qui placent la sécurité au premier plan ;
  • Gagner la confiance du public.

Chacun d’eux est décliné en deux ou trois segments précisant comment satisfaire ces exigences. Cela inclut, par exemple, des tests de sécurité internes et externes avant la mise en service d’outils d’intelligence artificielle.

Autre promesse : les entreprises s’engagent à donner la priorité à la recherche sur les risques sociétaux que les systèmes d’IA peuvent poser, notamment en évitant les préjugés et les discriminations préjudiciables et en protégeant la vie privée. On trouve aussi l’engagement de placer des marqueurs clairs sur les contenus générés par IA pour rappeler leur nature artificielle — et ainsi permettre au public de savoir ce qu’il lit, voit ou écoute.

Pour l’heure, la rencontre entre le gratin de l’IA générative et Washington a pour but de pousser le secteur à s’auto-réguler. « L’administration Biden-Harris obtient des engagements volontaires de la part d’entreprises leaders dans le domaine de l’intelligence artificielle afin de gérer les risques posés par l’IA », titre le résumé sur le site de la Maison-Blanche. Mais ces promesses sont de l’ordre de la déclaration, sans conséquence évidente en cas de manquement.

Source : Matheus Bertelli
L’émergence de ChatGPT en novembre 2022 a largement accéléré le besoin d’un cadre plus strict autour de l’IA générative. // Source : Matheus Bertelli

Mais après les promesses doivent arriver des mesures plus contraignantes. En particulier, il est question d’un décret présidentiel, en cours de rédaction, qui doit adresser certains des risques posés par l’IA. La Maison-Blanche dit également être décidée à soutenir la mise en place d’une législation bipartisane sur le sujet. Des initiatives sont déjà lancées en ce sens, rappelait The Verge en juin dernier. Le flou demeure néanmoins sur ce que pourraient contenir ces différents textes et sur leurs échéances respectives.

L’implication croissante des autorités et du législateur outre-Atlantique pour fixer un cadre au secteur de l’intelligence artificielle fait écho aux efforts analogues qui sont en cours en Europe. En particulier, le Vieux Continent apporte les dernières touches à sa Législation sur l’intelligence artificielle (AI Act), qui organise des règles selon le degré de risque posé par les systèmes, mais aussi face à l’explosion récente des outils comme ChatGPT.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.