« Presque parfait » n’est pas parfait, et c’est précisément ce qui est reproché à la conduite autonome proposée par Tesla à ses clients. Le système Full Self-Driving (FSD) de Tesla progresse vite et Elon Musk ne cesse de vanter ses mérites et sa fiabilité. Au point que l’entreprise espère déployer des milliers de robotaxis dans les prochaines années. En effet, tout se passe bien lors d’une majorité de trajets. Néanmoins, lorsque le FSD est impliqué dans un accident, cela attire immédiatement l’attention.
Le témoignage de Raffi Krikorian, ancien responsable du programme de conduite autonome chez Uber, publié sur The Atlantic le 17 mars 2026, met le doigt sur un détail intéressant. L’article n’est pas une critique des limites techniques du Full Self-Driving de Tesla. Il illustre plutôt un phénomène plus gênant : ces systèmes fonctionnent suffisamment bien pour que les conducteurs finissent par leur faire confiance… parfois trop. C’est le phénomène de « déclin de vigilance ».
Un accident presque banal, qui n’aurait pas dû attirer l’attention
Les faits sont simples. À bord de sa Tesla Model X, sur un trajet qu’il connaît parfaitement, Raffi Krikorian utilise le mode FSD supervisé. La voiture enchaîne les kilomètres sans difficulté, comme elle le fait depuis des mois dans ces mêmes rues.
Puis, lors d’un virage, le comportement du véhicule devient incohérent. La direction réagit de manière inattendue avec des coups de volant, la voiture ralentit sans raison claire. Le conducteur tente de reprendre la main, mais l’enchaînement est trop rapide. La voiture termine sa course contre un mur.

Le véhicule est détruit, mais par chance, l’accident ne laisse que des blessures légères à ses deux occupants : le conducteur et son fils installé à l’arrière. Un accident qui n’aurait donc aucune raison de faire les gros titres, si ce n’est que le conducteur dispose justement d’une expérience de conduite de véhicules autonomes.
Il a dirigé des programmes de conduite autonome de 2015 à 2017. Il a spécialement formé des conducteurs de sécurité pour réaliser les tests de l’entreprise. Il connaît donc précisément les limites de ces systèmes. Malgré cela, il n’a pas réussi à éviter l’impact. Et il n’est pas le seul à l’avoir vécu, comme en témoignent plusieurs commentaires sur son profil Linkedin.
Ces aides inspirent confiance, avant de trahir
Puisqu’elles fonctionnent correctement la plupart du temps, ces aides à la conduite installent une routine. Le conducteur reste théoriquement responsable, mais dans les faits, il se contente d’un rôle de supervision. Et la supervision d’un système qui fonctionne bien, disons 99 % du temps pour notre démonstration, est ennuyeuse. Les recherches sur le sujet montrent que l’attention diminue lorsque tout se passe bien. Le cerveau se met en retrait, faute de stimulation : c’est ce que des spécialistes appellent le « déclin de vigilance ». C’est justement ce point que Raffi Krikorian veut mettre en lumière à travers son témoignage.
Le problème surgit lorsqu’une situation exceptionnelle casse cette routine. Le conducteur doit alors comprendre ce qui se passe en un éclair, analyser une situation qu’il n’a pas anticipée et agir immédiatement. Or, ce réflexe dans une situation d’urgence n’est pas donné à tout le monde. Il faut déjà que le conducteur soit en état de vigilance. Force est de constater qu’avec des aides à la conduite aussi avancées souvent utilisées au quotidien, la supervision est vite oubliée. Dans le cas présent, le conducteur a bien tenté de reprendre le contrôle, mais sans succès malgré son expérience.

Jamais la faute de Tesla
Malgré les performances du système FSD, il reste au niveau 2 de la conduite autonome, c’est-à-dire que la responsabilité incombe entièrement au conducteur. Finalement, l’obligation d’introduire la mention de « supervisé » dans le nom de la technologie s’avère être à l’avantage de Tesla. Dans un autre contexte, le constructeur serait responsable de l’accident.
Ces systèmes sont conçus pour être utilisés en continu, sur des trajets variés, avec un niveau de fiabilité suffisant pour instaurer une forme de confiance. Mais lorsque cette confiance conduit à un accident, c’est l’utilisateur qui en assume les conséquences. En cas de procès intenté contre la marque, Tesla s’appuie notamment sur les données enregistrées par ses véhicules pour analyser le comportement du conducteur après un accident, et trouve souvent une manière de démontrer que ce n’était pas de sa responsabilité.
À l’inverse, certains acteurs comme BYD ont commencé à prendre des engagements différents en Chine, en acceptant de couvrir certains incidents liés à des fonctions automatisées. Une approche encore limitée, mais qui montre que la question du partage de responsabilité commence à émerger.
Ce témoignage rappelle une réalité souvent sous-estimée : le problème des systèmes de conduite assistée n’est pas seulement celui de leurs limites techniques. Il tient aussi à la manière dont ils transforment le comportement des conducteurs en créant un nouveau danger sur des technologies encore imparfaites.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Pour ne rien manquer de l’actualité, suivez Numerama sur Google !












