Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

« Personne ne conduisait » : un crash mortel en Tesla rappelle encore que la conduite autonome n’existe pas

Deux hommes ont perdu la vie à bord d'une Tesla Model S. Il n'y avait visiblement personne derrière le volant au moment du crash. 

C'est un énième fait divers lié à Tesla qui fait froid dans le dos : comme rapporté dans un article du New York Times le 18 avril, deux hommes ont perdu la vie à bord d'une Model S samedi soir, au Texas. Selon les premiers éléments de l'enquête, personne n'était derrière le volant au moment du crash. Tout porte à croire que les deux victimes ont voulu pousser un peu trop loin la technologie Autopilot, qui permet à la voiture de conduire seule dans des conditions très favorables.

L'agent Mark Herman a indiqué que l'un des hommes était assis à l'avant, mais côté passager, tandis que l'autre était installé à l'arrière. Si rien ne permet de confirmer que l'Autopilot était bien activé au moment des faits, le duo aurait discuté de la technologie avant de partir pour leur virée tragique. Hasard du calendrier : dans un tweet publié le même jour, Elon Musk vante l'efficacité de l'Autopilot d'après une nouvelle étude publiée par Tesla : quand elle est activée, la super assistance permettrait de réduire les risques d'accident (près de 10 fois moins de risque).

https://twitter.com/elonmusk/status/1383548841438236674

Encore une preuve que les Tesla ne sont pas des voitures autonomes

Les Tesla ne sont pas encore des voitures 100 % autonomes. Et cet accident, qui a hélas coûté la vie de deux hommes, en est une nouvelle preuve. La Tesla Model S, datant de 2019, a percuté un arbre à une vitesse très élevée après avoir loupé un virage dans un quartier résidentiel situé dans les Woodlands. La voiture a immédiatement pris feu et les pompiers ont mis du temps à l'éteindre. « Il a fallu quatre heures pour éteindre un feu qui, normalement, peut l’être en quelques minutes », a indiqué Mark Herman. 

Plusieurs éléments tendent à prouver que les deux hommes aient pris des risques inconsidérés. Il y a d'abord la question du lieu : un quartier résidentiel a priori situé près d'une forêt ne paraît pas être l'endroit idéal pour tester l'Autopilot, aujourd'hui pensé pour offrir une conduite semi-autonome assez sûre, mais sur des voies rapides (plus simples à gérer pour une intelligence artificielle). Numerama a pu le vérifier lors d'un essai prolongé de la Model 3.

Il y a aussi cette hypothèse selon laquelle personne n'était derrière le volant au moment de l'accident. Tesla ne cesse pourtant de rappeler que l'Autopilot, s'il facilite grandement l'expérience de conduite, nécessite une vigilance constante -- comme si on conduisait normalement. Sur le configurateur en ligne, il est stipulé : « Les fonctionnalités actuelles exigent une surveillance active de la part du conducteur et ne rendent pas le véhicule autonome. »

Si on peut accuser Tesla d'aller un peu trop loin dans le développement de technologies susceptibles de mettre en danger la vie des utilisateurs (et de semer la confusion dans les esprits), les propriétaires restent responsables de leur usage dans les conditions qui s'y prêtent. Par le passé, on a déjà vu des exemples montrant que les gens peuvent faire n'importe quoi avec l'Autopilot, fort heureusement avec des conséquences moins tragiques.