Uber a suspendu la circulation de ses voitures autonomes à la suite d'un accident de la route mortel. Un drame qui ne devrait pas remettre fondamentalement en cause l'intérêt de ce mode de conduite, même si certaines questions n'ont pas encore de réponse.

Les circonstances de l’accident qui a entraîné la mort d’une piétonne, percutée par une voiture autonome alors qu’elle traversait une voie de circulation, commencent à s’éclaircir. Alors que l’on savait déjà que la collision s’était déroulée en dehors d’un passage piéton, survenue aux États-Unis, à Tempe en Arizona, la police a apporté des précisions complémentaires.

D’après les autorités locales, la voiture autonome circulait à la vitesse d’environ 64 km/h (40 miles par heure), ce qui a priori respectait les limitations de vitesse outre-Atlantique en zone urbaine. Un conducteur « de sécurité » se trouvait à bord du véhicule au cas où il faudrait reprendre le volant face à une situation imprévue, mais c’était bien le mode de conduite autonome qui était actif au moment du choc.

Uber x Volvo CC Dilu

Pourquoi la voiture n’a-t-elle pas ralenti ?

En revanche, et c’est l’un des points cruciaux que l’enquête devra éclaircir, il semble que la voiture n’a montré aucun signe manifeste d’une tentative de ralentissement ou de manœuvre pour esquiver la piétonne s’engageant sur la voie. Par ailleurs, le conducteur à bord de la voiture autonome était en pleine possession de ses moyens, indique la police. Il n’était ni assoupi ni sous l’effet d’une quelconque substance.

La femme se trouvait-elle trop près du véhicule pour que celui-ci puisse faire quoi que ce soit ? Y a-t-il eu un défaut des capteurs ou une incapacité du système de bord à traiter l’information ? Pourquoi le conducteur, censé être là pour pallier les faiblesses éventuelles du système de conduite autonome n’a-t-il rien pu faire ou, s’il a tenté quelque chose, cela n’a-t-il rien donné ? L’accident aurait-il pu être évité si le conducteur avait eu d’emblée la main sur l’automobile ?

Les responsabilités dans cette affaire ne seront pas tout à fait les mêmes en fonction des réponses à ces questions.

Doit-on freiner le développement de la voiture autonome ?

Bien que dramatique, parce qu’il y a eu un décès, et spectaculaire, puisque c’est de toute évidence la première fois qu’une voiture autonome heurte mortellement une piétonne, il est improbable de penser que cet accident va remettre en question le développement des voitures autonomes, même si ce fait divers pourrait conduire les autorités de régulation à se montrer plus exigeantes à l’égard des constructeurs.

Selon les Centres pour le contrôle et la prévention des maladies, qui sont les agences de référence aux USA en ce qui concerne la santé et la sécurité publiques, il y a eu en 2015 5 376 piétons qui ont été tués dans des accidents de la circulation. Cela équivaut environ à un décès de piéton toutes les 1,6 heure. Par ailleurs, 129 000 passants ont été blessés lors d’un accident de la route.

Rue ville
CC Gratisography

Les promoteurs de la voiture autonome insistent sur le fait que le fait de confier l’acte de conduite à des systèmes informatiques est globalement plus sûr que de s’en remettre aux humains, aussi expérimentés soient-ils. D’ailleurs, une commission onusienne anticipe une future interdiction faite aux humains de conduire. De plus, les États sont dans une logique d’ouverture de la voie publique aux voitures autonomes.

Lorsque Tesla a connu son premier accident mortel, l’entreprise avait fait remarquer que son mode de conduite automatique avait déjà parcouru 210 millions de kilomètres, alors qu’il se produit aux USA un mort tous les 151 millions de kilomètres. Tesla mettait alors en avant la fiabilité de son système, même si celui-ci n’est pas encore en mesure d’être activé dans toutes les situations de conduite (par exemple en centre-ville).

Statistiquement, il y aura sans aucun doute d’autres morts, que ce soit des piétons, des passagers ou des conducteurs. L’enjeu est donc de savoir si sécurité des voitures autonomes est meilleure que celle que l’on peut espérer en laissant des humains conduire des voitures. Si le ratio des morts par kilomètre est significativement à l’avantage des systèmes de conduite autonome, alors la messe est dite.

Piratage et éthique : quels sont les problèmes irrésolus ?

En revanche, il y a deux problématiques, qui ne sont pas liées à l’affaire en cours, qui restent en suspens :

Quid des risques de piratage des voitures autonomes ? Dans un scénario catastrophe, on pourrait imaginer que le système de bord puisse être piraté afin de jeter les voitures les unes contre les autres ou dans la foule. Si cela ne s’est jamais (et heureusement !) produit, la vulnérabilité technique de certains modèles a été démontrée, dans certains cas de figure, par des experts en sécurité informatique.

Quid, enfin, des problématiques éthiques qui pourraient se poser, si jamais un accident est inévitable ? Faut-il ajouter une option au véhicule pour lui indiquer qui il doit sacrifier ? Le MIT avait créé un questionnaire pour nous confronter au dilemme : du passant ou du conducteur, qui sauverions-nous si nous étions un véhicule autonome ? Question délicate, sur laquelle des pays comme l’Allemagne réfléchissent.

À lire sur Numerama : Voiture autonome, autopilote, assistance à la conduite  : quelles différences  ?

Partager sur les réseaux sociaux