Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Ces fans de Tesla sont prêts à mettre en danger des enfants pour défendre la conduite autonome

Pour démontrer que la conduite autonome (FSD) de Tesla n’écrase pas les enfants, comme certains tentent de le faire croire, des fans de la marque demandent à des parents de « prêter » leurs enfants pour le prouver.

Comment arrive-t-on à une situation ubuesque où un fan de Tesla demande sérieusement sur Twitter à des parents de « prêter » leur enfant, pour prouver que leur Tesla en conduite autonome ne les écrasera pas ? Apparemment, aux États-Unis, l’idée divise. Une partie des fans de la marque ont une telle confiance dans le Full Self-Driving développé par Tesla qu’ils sont prêts à tenter l’expérience, avec les risques que cela comporte. Voilà qui est assez inquiétant.

Comment en est-on arrivé à cette situation ?

C’est une première vidéo de campagne TV, diffusée le 9 août 2022 puis reprise par certains médias, qui a fait réagir les utilisateurs de la conduite autonome, dite Full Self-Driving, de TeslaCette vidéo montrait que malgré plusieurs tentatives, le mannequin représentant un enfant était systématiquement percuté par une Tesla avec la conduite autonome enclenchée [mise à jour le 12/08 : la conduite autonome n'était apparemment pas active]. Cette démonstration a immédiatement soulevé des inquiétudes sur la dangerosité de la conduite autonome, une de plus à ajouter à la longue liste des reproches faits à l’autopilot et au Full Self-Driving.

https://twitter.com/RealDanODowd/status/1556973572698128385

Les utilisateurs les plus assidus du système FSD se sont rapidement élevés contre cette vidéo, considérée comme une fake news, et se sont mis en tête de prouver que la conduite autonome détectait très bien les piétons, y compris les enfants, dans différentes configurations.

Ils ont commencé à montrer, avec une silhouette en carton, que la Tesla ralentissait en détectant l’obstacle. Ils ont également filmé d’autres scènes de la vie courante dans la circulation des rues de San Francisco, publiées le 10 août, validant que la voiture détectait et ralentissait bien en présence d’un éventuel danger venant d’un piéton en mouvement.

Et, pour aller encore plus loin dans la démonstration, par l’absurde, ils se sont dits qu’il faudrait tester avec de vrais enfants. Ils ont donc passé une annonce sur Twitter.

https://twitter.com/WholeMarsBlog/status/1557112809132945408

Des tests qui ne prouvent rien, sauf un aveuglement inquiétant à l'égard de Tesla

Ceux qui suivent les réseaux sociaux, forums et autres supports, auront déjà pu observer qu’en critiquant Tesla, on s’expose au déchainement de la passion des fans de la marque. Ce n’est pas réservé à Tesla, mais l’enthousiasme de certains est quand même très visible et parfois même très inquiétant.

Le fait qu’une Tesla s’arrête bien, en détectant un enfant lorsque la conduite autonome FSD est enclenchée, ne signifie pas que dans 100 % des situations, cela va être le cas. Doit-on rappeler qu’il arrive encore que la Tesla ne repère pas certains obstacles beaucoup plus gros et beaucoup moins mobiles ? Elles sont pourtant nombreuses, les vidéos tests de la conduite autonome Full Self-Driving, dans lesquelles on voit le propriétaire devoir reprendre la main.

https://www.youtube.com/watch?v=yfuUI-5GBxs

Le système a beaucoup évolué depuis sa mise en service, mais il ne reste pas exempt de défauts, surtout dans des environnements où la voiture doit cohabiter avec beaucoup d'éléments à analyser.

Deux camps s’opposent, entre anti-FSD, qui veulent faire interdire le système, et pro-FSD, prêts à tout pour faire croire que le système est parfait. La vérité se situe certainement entre les deux. Espérons juste que les pro-FSD, dans leur quête de prouver l’efficacité du système, n’en viennent pas à créer un drame par excès de confiance dans la technologie.