Un colonel de l’armée de l’air américaine a déclaré qu’un drone pourrait tué son opérateur lors d’un test de drone contrôlé par l’intelligence artificielle.

Ce 2 juin, le quotidien britannique The Guardian rapporte qu’un drone de combat américain, contrôlé par une intelligence artificielle (IA), « aurait tué » son opérateur lors d’un test simulé.

Lors d’un sommet militaire qui s’est tenu à Londres en mai sur l’avenir des combats aériens, le colonel Tucker « Cinco » Hamilton, chef des tests et opérations d’IA au sein de l’armée de l’air américaine, a relayé cette expérience, et ajoute que l’IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». Le site de la Royal Aeronautical Society rapporte la conférence : « Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif ». Après une reprise massive de cette information, le colonel s’est finalement ravisé et a déclaré « s’être mal exprimé » toujours sur la page de la Royal Aeronautical Society.

Les Reaper sont des drones de catégorie MALE, moyenne altitude, longue distance // Source : Wikimedia Commons
Les MQ9-Reaper sont des drones de référence de l’armée américaine. // Source : Wikimedia Commons

L’armée de l’air nie cet incident

Le Colonel Hamiltion, pilote d’essai de chasse expérimentale, a mis en garde contre une trop grande confiance dans l’IA et a déclaré que le test montrait « qu’on ne peut pas avoir une conversation sur l’intelligence artificielle, l’apprentissage automatique, l’autonomie, si l’on ne parle pas de l’éthique et de l’IA. »

Dans une déclaration au média américain Insider, la porte-parole de l’armée de l’air, Ann Stefanek, a nié cette réaction de l’IA. « Le département de l’armée de l’air n’a pas effectué de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie de l’IA. Il semble que les commentaires du colonel aient été pris hors contexte et se voulaient anecdotiques.» De nombreux tests de drones militaires gérés par l’IA continuent et un exercice conjoint a été récemment organisé par les armées britanniques, américaines et australiennes pour expérimenter l’autonomie dans ces engins.

Article mis à jour le 3 juin après les propos du Colonel Hamilton.


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !