Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Waymo a fait subir à ses voitures de vrais accidents graves (et elles les ont presque tous évités)

Waymo, filiale de Google dédiée à la conduite autonome, a procédé à des simulations d'accidents graves pour prouver que son intelligence artificielle est bien plus sécurisée qu'un humain. 

Waymo partage régulièrement des informations sur la technologie qu'il est en train de mettre au point en matière de conduite autonome. Ces derniers mois, la filiale a voulu tester son intelligence artificielle dans des situations tragiques, en l'occurence des accidents graves qui ont vraiment eu lieu il y a plusieurs années. Elle a partagé les résultats dans un communiqué publié le 8 mars et, sans surprise, ils sont positifs pour Waymo Driver, chargé de piloter la voiture à la place d'un humain.

Les ingénieurs ont donc simulé plusieurs collisions survenues dans l’Arizona entre 2008 et 2017 (91 scénarios au total), excluant volontairement celles qui ne font pas partie du champ opérationnel de Waymo Driver. « Les résultats sont encourageants », estime Waymo. Son intelligence artificielle aurait évité 100 % des accidents quand elle est dans le rôle de l’initiatrice. On tombe à 82 % quand elle est dans celui qui subit les événements.  

Waymo veut prouver que son IA est plus forte qu'un humain

« Quand nous avons positionné Waymo Driver dans le rôle de l’initiateur, il a évité tous les accidents avec une conduite compétente et appropriée, obéissant au code de la route », se félicite Waymo. Avec ce résultat très positif, l’entreprise démontre qu’une intelligence artificielle peut difficilement se mettre en faute, là où un humain, qui doit composer avec des émotions et un temps de réaction moindre, peut faire des erreurs. En prime, Waymo Drive est pensé pour respecter le code de la route à la lettre. Sur le papier, il ne peut pas griller un feu rouge ou être en excès de vitesse. 

« Comme les humains continueront d’être sur les routes dans le futur, il est important de comprendre comment peuvent performer les systèmes de conduite autonome face aux erreurs humaines », poursuit Waymo. Quand Waymo Driver n'est pas à l'origine du crash, il obtiendrait un taux de réussite de 82 %. Dans 10 % des scénarios, il serait capable d'atténuer la sévérité de l'accident. Et les derniers 8 % ? « Dans ces simulations, le véhicule conduit par un humain a percuté l’arrière de Waymo Driver alors qu’il était à l’arrêt ou roulait à une vitesse constante, lui donnant peu de marge de manœuvre pour réagir », indique Waymo. En somme, il existe encore des cas -- complexes à éviter -- où le robot ne peut rien faire

Bien évidemment, Waymo ne trouve aucun défaut à sa technologie, déjà lancée sous la forme d'un service de taxis autonomes dans l'ArizonaLe but de la filialea de Google est de sensibiliser au plus vite les pouvoirs publics afin qu'ils établissent un cadre législatif favorable à la conduite autonome et à son développement commercial. Cette étude solide, basée sur des faits, est un argument de plus à brandir. Et on rappelle que Tesla ne manque jamais, lui-aussi, de mettre en avant les gains en sécurité obtenus grâce à son Autopilot.