Le 5 mai 2026, Microsoft, Google et xAI ont accepté d’accorder au gouvernement américain un accès anticipé à leurs modèles d’IA les plus avancés. Un nouvel accord qui confirme un tournant dans les relations entre la Silicon Valley et Washington.

Le vent a-t-il définitivement tourné dans la Silicon Valley ? Un nouvel accord entre les géants de l’IA et le gouvernement américain confirme en tout cas un basculement. Microsoft, Google et xAI accorderont désormais au gouvernement américain un accès anticipé à leurs nouveaux modèles d’IA avant leur publication, rapporte Reuters le 5 mai 2026. L’objectif : permettre une évaluation en amont des risques pour la sécurité nationale.

Ce tournant intervient dans un contexte déjà en pleine recomposition. Début 2026, Anthropic (Claude) refusait catégoriquement que sa technologie soit utilisée pour la surveillance de masse ou les armes autonomes. Une position de principe qui n’a pas empêché le contrat d’être rapidement récupéré par OpenAI. Dans la foulée, Google a lui aussi conclu un accord pour des opérations classifiées — en mettant en avant une ligne rouge : son IA « ne doit pas être utilisée pour la surveillance de masse intérieure ou les armes autonomes (y compris la sélection des cibles) sans supervision et contrôle humains appropriés », tout en acceptant qu’elle serve à « tout usage gouvernemental légal ».

Et ce repositionnement s’inscrit dans un mouvement plus large. Microsoft et xAI (Grok) disposaient déjà d’accords solides avec le gouvernement pour des usages opérationnels, la start-up d’Elon Musk ayant, comme Google, opté pour une approche couvrant « tous usages légaux ».

Google Gemini for Mac. // Source : Google
Google Gemini for Mac. // Source : Google

Pourquoi Google, Microsoft et xAI vont-ils donner leurs nouveaux modèles en avance ?

Concrètement, les modèles concernés par ce contrôle en amont sont les systèmes d’IA les plus avancés du moment, généralement qualifiés de frontier models. Capables de raisonner, d’écrire du code, ou encore d’analyser des images et des vidéos, ils surpassent largement les générations précédentes — au point de pouvoir, en cas de détournement, faciliter des cyberattaques, des campagnes de manipulation de l’information, voire contribuer à la conception d’armes.

C’est précisément ce risque qui alimente les inquiétudes à Washington. Le cas de Claude Mythos, dont les performances suscitent déjà de vives préoccupations, cristallise ces craintes de détournement à des fins de déstabilisation étatique.

Dans ce contexte, l’organisation du contrôle en amont devient, visiblement, centrale pour le gouvernement. Les trois entreprises fourniront ainsi leurs nouveaux modèles au département du Commerce, via une structure dédiée : le Center for AI Standards and Innovation (CAISI). Ce centre, conçu comme un hub fédéral d’évaluation, est chargé de conduire des tests orientés « sécurité nationale » avant tout déploiement public. Il analyse les capacités brutes des modèles, identifie les usages les plus sensibles — cyber, biologie, opérations d’influence — et formule des recommandations pour l’ensemble de l’appareil gouvernemental.

Le CAISI a publié un communiqué. // Source : CAISI
Le CAISI a publié un communiqué. // Source : CAISI

« Les accords conclus par CAISI avec des développeurs d’IA de pointe permettent aux pouvoirs publics d’évaluer les modèles d’IA avant leur mise à disposition du public, ainsi que de réaliser des évaluations post-déploiement et d’autres recherches », précise l’organisme dans son communiqué. Avant d’ajouter : « À ce jour, CAISI a mené à bien plus de 40 évaluations de ce type, y compris sur des modèles de pointe non encore publiés ».

Officiellement, l’accord repose sur une démarche volontaire : il s’agit d’engagements pris par les entreprises, et non d’une contrainte légale. Mais dans les faits, il entérine… un nouveau standard. Pour les acteurs dominants des frontier models, les systèmes les plus puissants sont désormais appelés à être examinés sous l’angle de la sécurité nationale avant leur diffusion à grande échelle.

« Une science de la mesure indépendante et rigoureuse est essentielle pour comprendre l’IA de pointe et ses implications en matière de sécurité nationale », a défendu Chris Fall, directeur du CAISI, dans le document.

Cette initiative ne part toutefois pas de zéro. Elle prolonge des accords conclus dès 2024, sous l’administration Biden, avec OpenAI et Anthropic, à l’époque où le dispositif portait encore le nom d’Institut américain de sécurité de l’intelligence artificielle. Ces premiers mémorandums donnaient déjà à l’État un accès anticipé aux nouveaux modèles afin d’en tester les capacités et les risques, avant comme après leur sortie publique. L’accord de 2026 marque donc moins une rupture qu’un changement d’échelle.


Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Pour ne rien manquer de l’actualité, suivez Numerama sur Google !