Nvidia a montré les avancées de ses recherches en intelligence artificielle par un exemple marquant : une IA est capable, dans une autonomie relative, de changer les conditions climatiques d’une vidéo.

Falsifier ou décontextualiser une image pour servir un discours et lui faire dire une chose qu’elle n’est pas est à la portée du plus débutant des fake-newser. Modifier une vidéo pour les mêmes desseins est un poil plus complexe : il faut une bonne maîtrise technique de plusieurs outils et les faux raccords sont vite arrivés. Cela dit, aujourd’hui, même les intox les mieux déguisées finissent toujours par tomber entre les mains d’un internaute motivé ou d’un service de « debunk » qui parviennent à les démonter, les expliquer et les contextualiser. D’ailleurs, l’intention de l’auteur d’une intox peut, souvent, servir de base pour commencer une enquête.

Maintenant, imaginons que chaque vidéo, de la plus importante à la plus banale, d’une allocution présidentielle à la dashcam d’une voiture sur une route estonienne, soit potentiellement fausse, potentiellement manipulée, potentiellement altérée. Le tout sans la moindre intention, simplement parce que c’est possible.

C’est à peu près ce que l’on entrevoit dans les nouvelles capacités des puissants algorithmes de Nvidia, qui s’est fait, avec ses derniers GPU, l’un des champions du traitement automatisé de l’image. Récemment, l’entreprise a publié le résultat d’un travail de recherche plutôt bluffant : une IA est capable d’inventer des conditions météorologiques sur des images et de les assembler pour en faire des vidéos.

Le procédé innove dans la mesure où il laisse une plus relative indépendance à l’IA pour ses créations. Pour cela, Nvidia associe de manière plutôt classique deux réseaux neuronaux : le premier « apprend » à partir d’une base de données et le deuxième juge les créations pour ne garder que les meilleures. L’avancée par rapport à des travaux similaires se situe sur l’économie du travail humain : le constructeur de cartes graphiques estime que l’ensemble fonctionne sans qu’un humain ait besoin de trier les données initiales. Par exemple, l’IA peut créer « de la nuit » sans avoir vu au préalable un exemple d’un lieu donné de jour et de nuit. D’autres paramètres lui donnent des indices qui amèneront à la transformation de l’image, évaluée par l’autre réseau neuronal.

Impressionnant en théorie, le procédé pourrait être aussi infiniment utile en pratique. Nvidia, qui s’est impliqué dans la recherche sur les voitures autonomes, estime que les vidéos générées par ses algorithmes vont permettre à tout l’écosystème d’avancer plus vite. En effet, comme le rappelle The Verge, à quoi bon cumuler des centaines de milliers de kilomètres en autonomie pour entraîner des algorithmes si cette distance est effectuée sur les routes ensoleillées de la Californie ? Comment réagira le cerveau siliconé d’une voiture autonome à la première tempête, à la première neige ? Ces conditions climatiques générées par ordinateur permettraient d’accélérer l’entraînement des véhicules.

Mais si l’on revient au domaine de l’information, il est assez clair qu’une telle technologie peut amener de nouveaux défis, comme le montre une autre vidéo publiée par l’entreprise. Le réseau neuronal « non supervisé » est en effet capable de changer la race d’un félin tout seul, créant des photos de nature sauvage en partant de chatons d’appartement.

Un signe de plus, s’il en est, que l’humain assisté par l’IA, dans de nombreux corps de métiers, se dessine comme une réalité d’avenir. Quand la technique, l’intelligence et l’œil humains ne pourront plus faire la différence entre une image authentique et une image créée de toute pièce par de puissants calculs, le seul recours sera de créer des algorithmes au moins aussi puissants pour repérer le vrai du faux.


Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !