Votre assistant IA ne connaît pas la sensation du vendredi après-midi, mais vous si, et c’est précisément le problème pointé par Dennis Xu, vice-président recherche chez Gartner.
Lors d’une conférence à Sydney mi-mars 2026, consacrée aux risques portés par l’intégration de Copilot à Microsoft 365, l’analyste a suggéré aux entreprises d’interdire l’accès à l’outil IA à l’approche du week-end.


La raison est évidente : la validation systématique des productions de l’IA est indispensable à tout moment, et le vendredi après-midi est précisément le moment où les employés, pressés d’en finir avec leur semaine, risquent de ne pas s’y astreindre. Si la suggestion a été formulée avec une pointe d’ironie, elle illustre un constat plus sérieux.

Un risque parmi d’autres
Cette recommandation est en réalité venue conclure une présentation de trente minutes consacrée à un panorama de risques plus structurels liés à l’usage de l’IA en entreprise.
Le risque le plus développé par Dennis Xu concerne l’exposition de documents confidentiels. Copilot peut indexer et restituer des fichiers hébergés sur SharePoint auxquels les droits d’accès n’ont pas été correctement configurés, un problème que l’analyste décrit non pas comme une menace inédite, mais comme un risque amplifié par l’IA.
Les autres risques identifiés couvrent un spectre large, de l’injection de prompts, à l’accès involontaire à des données sensibles via des applications tierces connectées à l’outil. Dans tous les cas, la surface d’attaque s’élargit moins par des failles techniques nouvelles que par la multiplication des usages et des utilisateurs.
L’humain plus dangereux que l’IA
C’est d’ailleurs le point central de la présentation de Xu : aucune de ces menaces n’est vraiment nouvelle. Le partage involontaire de documents confidentiels, l’exécution de code à distance, l’escalade de privilèges via un tiers, ce sont des problèmes que la sécurité informatique connaît depuis des décennies. Ce que Copilot et l’IA changent réellement, c’est la vitesse et la facilité avec laquelle un employé ordinaire peut, sans intention malveillante, les déclencher.
La suggestion du vendredi après-midi pointe ainsi vers une notion cruciale : le maillon faible dans la chaîne de sécurité de l’IA en entreprise pourrait ne pas être l’outil lui-même, mais l’humain fatigué qui lui fait confiance sans vérifier. Former les utilisateurs, restreindre les accès, activer les filtres, les recettes sont connues. Les appliquer avant de déployer l’IA à grande échelle, c’est une autre histoire.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !












