Le monde automobile connaît son premier accident mortel à bord d'une voiture conduite par une intelligence artificielle. Tesla a dû reconnaître jeudi soir que le mode Autopilot de sa Model S n'avait pas su détecter l'arrière d'une remorque de camion, qui est venu percuter le pare-brise. Les conséquences de cet accident pour l'industrie restent incertaines.

« Une perte tragique ». C’est avec ce titre que Tesla a communiqué jeudi soir sur l’enquête ouverte par la National Highway Traffic Safety Administration (NHTSA), après un accident mortel impliquant une voiture Tesla Model S qui était en mode Autopilot au moment de l’accident. Tout en rappelant que son intelligence artificielle est un mode qu’il faut activer et qui exige encore que le conducteur reste les mains sur le volant pour parer à tout événement, le constructeur a confirmé en filigrane que son Autopilot avait probablement une part de responsabilité.

« Ce que nous savons c’est que le véhicule était sur une autoroute séparée à double sens avec Autopilot engagé quand un semi-remorque a roulé sur l’autoroute perpendiculairement à la Model S. Ni l’Autopilot ni le conducteur n’ont remarqué le côté blanc de la remorque sur fond d’un ciel très lumineux, donc les freins n’ont pas été enclenchés », décrit Telsa.

Dit autrement, ses capteurs, ou l’absence de suffisamment de capteurs, est bien en cause — même si d’un point de vue juridique, les assurances de Tesla rappelleront que l’Autopilot est fourni sans garantie de fiabilité et ne doit jamais se substituer à l’attention du conducteur lui-même.

L’intelligence artificielle de Telsa avait déjà été mise en cause

«  La grande hauteur de la remorque combinée à sa position à travers la route et aux circonstances extrêmement rares de l’impact ont fait que la Model S est passée sous la remorque, avec l’arrière de la remorque qui a touché le pare-brise de la Model S. Si la Model S avait percuté l’avant ou l’arrière de la remorque, même à haute vitesse, ses systèmes de sécurité avancés en cas de crash auraient probablement évité des blessures sérieuses, comme ça s’est produit dans plusieurs incidents ».

Le descriptif de l’accident, dont Tesla estime qu’il était statistiquement inévitable qu’il finisse par arriver, rappelle un autre incident, dont les conséquences avaient été bien moins graves. En mai dernier, le propriétaire d’une Telsa Model S, dans l’Utah, avait utilisé la fonction Summon qui permet d’appeler le véhicule grâce à une application mobile, pour le faire avancer de quelques mètres, par exemple pour le sortir d’un parking. Son attention avait été distraite et son véhicule conduit par Autopilot s’était retrouvé enfoncé à l’arrière d’une remorque, là aussi certainement parce que les capteurs n’avaient pas vu l’obstacle placé à cette hauteur.

accident-utah

« Tesla a étudié les logs du véhicule, qui montrent que l’incident s’est produit en raison du fait que le conducteur n’était pas suffisamment attentif à l’environnement du véhicule », avait alors réagi Tesla. « Veuillez noter que le véhicule peut ne pas détecter certains obstacles, notamment ceux qui sont très fins (par ex. des vélos), plus bas que le tableau de bord, ou qui pendent du toît », avait-il ajouté.

L’intelligence artificielle de Telsa avait déjà été mise en cause aussi, lors de comportements dangereux au croisement de voitures sur des routes à double sens. Des conducteurs avaient publié des vidéos affolantes, ce qui avait amené Tesla à brider davantage son utilisation pour assurer que ses préconisations soient respectées. C’est sans doute pour cela que le constructeur précise bien dans son descriptif de l’accident que celui-ci est intervenu sur une autoroute qui était séparée par une barrière, ce qui écarte ce même type de problème qui avait beaucoup fait parler.

Néanmoins, The Verge indique que la personne décédée au volant de sa Tesla Model S était Joshua Brown, un passionné qui avait publié il y a quelques mois une vidéo qui avait beaucoup circulé, dans laquelle il montrait que sa voiture lui avait… évité un accident :

Sans confirmer son nom, Tesla écrit que «  le client qui est mort dans cet accident (…) était un ami de Tesla et plus largement de la communauté des amateurs de voitures électriques, une personne qui passait sa vie à penser à l’innovation et aux promesses de la technologie, et qui croyait fermement dans la mission de Tesla ».

La réaction des marchés et des autorités reste désormais attendue. S’il se confirmait que le mode Autopilot est trop dangereux, il pourrait être décidé de l’interdire, ce qui ralentirait non seulement Tesla, mais toute l’industrie automobile qui s’est lancée dans une course à l’automatisation.

La jeune société d’Elon Musk a parfois été critiquée pour avoir déployé son Autopilot trop tôt, et son image pourrait souffrir de cet accident, s’il est démontré que ses algorithmes ou ses capteurs sont en cause. Dans son communiqué, qui tente un difficile équilibre entre la reconnaissance de l’importance subjective du drame et la minimisation de son importance objective, Tesla rappelle que ses véhicules ont roulé environ 210 millions de kilomètres avant de connaître un premier accident mortel, alors qu’il se produit aux USA un mort tous les 151 millions de kilomètres. Pas sûr que cela rassure.

À lire sur Numerama : Une option sur la voiture autonome pour savoir qui tuer en priorité  ?

Partager sur les réseaux sociaux

Articles liés