Une Google Car californienne en mode autonome a percuté un bus à cause d’une erreur de jugement sur l’intention du chauffeur. Un problème fort humain que les algorithmes auront du mal à résoudre.

C’était un souci que Google n’avait pas jusque-là : à chaque fois que ses voitures autonomes avaient été dans une situation qui menait à un accident, c’était la faute de l’autre, de l’humain dans une voiture. Le 14 février pourtant, il semblerait qu’une Google Car ait été à l’origine d’un accident, se trompant sur l’intention d’un chauffeur de bus. The Verge s’est procuré une copie du rapport de l’accident que Google doit fournir aux autorités californiennes tous les mois et la firme de Mountain View y explique avec beaucoup de détails ce qui a mené à l’accident sur El Camino Real, un boulevard assez large avec 3 voies, des intersections et des centaines de feux rouges.

« Le 14 février, dit le rapport, un de nos véhicules autonomes s’est engagé sur la voie de droite pour prévoir un tournant à droite. Il a ensuite détecté des sacs de sable disposés dans un caniveau qui gênaient son passage. Le véhicule a eu besoin de s’arrêter. Il a alors attendu que plusieurs véhicules passent pour laisser la voie libre à sa manœuvre suivante : reculer dans la ligne centrale à 3 km/h. C’est là qu’il est entré en contact avec un bus à 25 km/h. Notre véhicule a bien entendu détecté le bus mais a assumé qu’il s’arrêterait, dans la mesure où nous étions devant lui ».

El_Camino__25_Ave_in_San_Mateo

El Camino Real, San Francisco

Le pilote bien humain qui était dans la voiture a, lui aussi, imaginé que le bus s’arrêterait vu la situation dans laquelle les véhicules étaient et n’a donc pas choisi d’arrêter la manœuvre manuellement. Le bus, quant a lui, a naturellement estimé que le véhicule allait s’arrêter. C’est cette combinaison de mauvaises estimations, de la part du véhicule autonome, du pilote accompagnateur dans celui-ci et du bus qui ont conduit à un accident. La situation peut faire sourire : ce sont des comportements très humains, fondés sur l’intuition, qui ont causé un souci à une machine — et à deux conducteurs en chair et en os.

Cet événement n’est donc, encore une fois, pas dramatique pour l’avenir de la voiture autonome : Google en a profité pour jouer des centaines de variations de l’accident dans son simulateur et a affiné le logiciel de ses voitures autonomes pour qu’il puisse prendre en compte une erreur de jugement avec des tonnes de variables. Bien entendu, il est difficile pour un algorithme de prévoir chaque intuition et intention humaine et jamais aucun véhicule autonome ne sera infaillible tant que tous les véhicules ne seront pas autonomes.

Il est difficile pour un algorithme de prévoir chaque intuition humaine

Car si deux véhicules qui se conduisent tout seul communiquent leur intention l’un à l’autre, un accident de ce genre ne pourrait pas se produire. Malgré les appels de phare et autres coups de klaxons, il est bien plus difficile de faire comprendre une intention précise sur une trajectoire de conduite à un conducteur humain.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !