Un véhicule autonome d'Uber a récemment été impliqué dans un accident aux États-Unis. Le dernier rapport publié par la police locale, qui s'appuie sur plusieurs témoignages, indiquerait que le véhicule pourrait avoir grillé un feu orange.

Pour l’instant, la voiture autonome n’est pas encore capable d’éviter les erreurs des conducteurs humains qui l’entourent : vendredi dernier, un accident s’est produit à Tempe, dans l’Arizona aux États-Unis. Une voiture autonome d’Uber, de la marque Volvo, est entrée en collision avec un véhicule dont le chauffeur s’apprêtait à tourner à gauche. La police locale indiquait alors que l’accident, plutôt spectaculaire — le véhicule autonome s’est retrouvé couché sur le côté, au beau milieu de la route — ne relevait pas de la responsabilité de la Volvo, mais de celle de l’autre voiture qui n’aurait pas respecté la priorité.

Uber avait alors retiré de la circulation tous ses véhicules autonomes, mais pas pour très longtemps. Quelques jours après l’accident, la flotte de véhicules autonomes était déjà de retour sur les routes de Tempe, Pittsburgh et San Francisco.

Mais les faits seraient peut-être plus complexes que ne le suggéraient les premières observations du département de police Temple. En effet, celui-ci vient de publier un nouveau rapport, daté du mercredi 29 mars. Et selon son contenu, la voiture autonome porterait peut-être une responsabilité dans l’accident. Son logiciel aurait-il pu prendre les mêmes risques qu’un conducteur humain, que le véhicule prétend pourtant pouvoir remplacer un jour ?

Selon ce document, consulté par Bloomberg, la voiture autonome se déplaçait à la vitesse de 40 miles par heure — soit 64 kilomètres par heure — avec à son bord deux chauffeurs d’Uber, chargés de tester le véhicule. La voiture autonome se serait alors engagée sur une intersection, où le feu passait au orange. La conductrice d’une Honda, qui s’apprêtait elle à passer au feu vert, aurait alors tourné à gauche, pensant que la voie était dégagée. C’est alors que les deux automobiles se seraient percutés.

La voiture a-t-elle bien identifié le feu orange ?

Ce récit de l’incident est à prendre avec des pincettes : en effet, il a été reconstitué à l’aide d’un témoignage, celui de l’un des deux employés d’Uber présents à bord du véhicule autonome. L’entreprise a quant à elle déclaré par l’intermédiaire de sa porte-parole que la voiture était en mode autonome au moment de la collision.

La conductrice de la Honda a indiqué qu’elle n’avait vu aucun véhicule arriver lorsqu’elle s’était engagée dans l’intersection. Un témoin extérieur à la scène a souligné dans le rapport de la police que le véhicule d’Uber n’aurait pas ralenti sa vitesse au feu orange. Cependant, d’autres témoins interrogés dans le rapport n’ont pas considéré que la voiture autonome était en faute dans l’accident.

Difficile pour l’instant de trancher la question de savoir si le logiciel de la Volvo a bien identifié que le feu était au orange. Si oui, le logiciel aurait-il pu considérer qu’il était possible de s’engager dans l’intersection en toute sécurité ? C’est une question qui pourrait aussi être posée à un humain : le feu orange est un avertissement que le feu va passer au rouge, mais à 60 km/h, on conseillera au conducteur d’éviter de piler pour s’arrêter en urgence, risquant de créer un accident derrière lui.

Fin 2016, un véhicule autonome d’Uber avait été pris en train de griller un feu rouge à San Francisco, mais la responsabilité de l’infraction était finalement revenue au chauffeur, au volant de l’automobile. Cette fois-ci, cet incident interroge la manière dont les véhicules seraient capables de prendre des décisions en autonomie, et la possibilité qu’ils puissent, comme toute être humain, potentiellement enfreindre le code de la route (de façon volontaire, ou non).

Partager sur les réseaux sociaux