L'entreprise Thales, spécialisée dans l'électronique et la défense, déclare qu'elle ne développera pas d'algorithmes pour des « robots tueurs ».

Le problème posé par le développement des « robots tueurs » — plus exactement des systèmes d’armes létales autonomes — a pris de l’ampleur ces dernières années, en témoignent par exemple les débats en cours aussi bien au niveau des Nations unies que du Parlement européen.

Il faut dire que les spécialistes en IA se montrent très alarmants : « Les armements autonomes risquent de devenir la troisième révolution en matière militaire. Une fois développés, ils permettront aux conflits armés d’avoir lieu à un degré jamais atteint et à des échelles de temps au-delà de la compréhension humaine », selon une lettre ouverte signée par plus de cent experts.

Thales refuse l’IA tueuse

De toute évidence, ces avertissements ont fini par faire mouche chez Thales. Le PDG du groupe, Patrice Caine, a déclaré qu’il est hors de question de « donner de l’autonomie à un système d’armes pour que de lui-même il puisse décider de tuer ou pas ». Dès lors, il a été décidé que le groupe « n’appliquera pas l’IA dans tout ce qui est létal (même) si les clients le demandent », selon des propos repris par l’AFP.

Northrop Grumman X-47B drone avion militaire armée
Le Northrop Grumman X-47B, un prototype de drone de combat, en 2013. // Source : Jane E. Campbell

Mais ce qu’il faut surtout, juge-t-il, c’est un cadre international permettant de graver dans le marbre l’interdiction de ces équipements. Un cadre avec des obligations et peut-être des sanctions pour dissuader entreprises et États d’aller dans cette direction. En somme, un peu comme le Traité de l’espace, qui interdit par exemple de placer des armes nucléaires en orbite terrestre.

La prise de position de Thales ne signifie pas que le groupe se désintéresse de l’IA. Au contraire : l’entreprise a de multiples projets dans ce domaine. Citons par exemple sa participation à l’avion de combat du futur, qui intégrera de l’intelligence artificielle, ou bien son rôle pilote dans AI4EU, une plateforme à la demande sur l’intelligence artificielle, qui est cette fois un projet civil.

Le diable est dans les détails

Reste que sur ces sujets, le diable se cache souvent dans les détails : est-ce qu’une telle interdiction couvrirait aussi les armements automatisés ? Télécommandés ? Sans doute pas. Les systèmes basés sur des règles préprogrammées pour des cas de figure bien précis, c’est-à-dire incapables de faire quoi que ce soit dans une situation imprévue, seraient-ils eux aussi concernés ?

Les systèmes automatiques et les systèmes autonomes sont deux catégories qui « ni homogènes — il y a des niveaux d’automatisme et des niveaux d’autonomie — ni exclusives l’une de l’autre. Il n’y a pas de frontière indiscutable entre l’automatisme et l’autonomie, mais plutôt un continuum », rappelle ainsi Jean-Baptiste Jeangène Vilmer, directeur de l’Institut de recherche stratégique à l’École militaire.

Partager sur les réseaux sociaux