L’entreprise américaine OpenAI se pose la question du bon moment pour sortir Sora. Il y a des considérations techniques, mais aussi des enjeux politiques. Une élection américaine est en cours, avec un dénouement en novembre 2024.

OpenAI devrait-elle s’abstenir de lancer Sora avant les élections américaines, qui se joueront le 5 novembre 2024 ? Voilà, en somme, la question posée à l’entreprise américaine spécialisée dans l’intelligence artificielle générative, à l’occasion d’un entretien au Wall Street Journal accordé par Mira Murati, sa directrice technique, le 13 mars.

Sauf coup de théâtre, le scrutin sera un re-match entre Donald Trump et Joe Biden. Or, compte tenu de la personnalité du chef de file des Républicains, la manière dont il mène campagne, sa frustration de ne pas avoir été réélu en raison, dit-il, d’un vaste complot à son encontre, et d’un électorat de droite chauffé à blanc, des débordements sont à craindre.

Dans ce cocktail explosif, l’IA générative pourrait être un ingrédient de plus, susceptible de jouer un rôle néfaste dans ce rendez-vous démocratique, en trompant les électeurs et les électrices. Une problématique à laquelle OpenAI réfléchit, selon Mira Murati. Et cela pourrait bien influer sur la date de sortie de Sora.

Sora, l'IA qui transforme du texte en vidéo // Source : OpenAI
Sora, l’IA qui transforme du texte en vidéo. // Source : OpenAI

Sora est un prototype d’IA générative spécialisée dans les vidéos. Il a été présenté en février et de nombreuses vidéos de démonstration ont été mises en ligne. Le rendu est bluffant, mais soulève les mêmes questions que les autres systèmes d’IA génératives, sur le droit d’auteur et l’avenir de certains métiers créatifs.

Actuellement, les performances de l’outil lui permettent de créer des clips pouvant durer une minute avec une haute qualité d’image (1080p). Certains rendus approchent le photoréalisme et les scènes peuvent être très variées, en incluant des mouvements complexes de caméra et de mise en scène. Mais bien sûr, il y a aussi des rendus faibles ou défaillants.

Sora doit faire ses débuts publics en 2024

Au Wall Street Journal, Mira Murati a confirmé l’intention de sa société d’ouvrir Sora au public plus tard dans l’année. L’outil dévoilé en février dernier deviendrait alors librement accessible, à l’image de ses deux autres principaux produits déjà disponibles, ChatGPT (génération de texte) et Dall-E (génération d’image).

Mais, a-t-elle averti, « cela pourrait prendre quelques mois. » Il y a d’abord une considération purement technique. Pas question pour OpenAI de sortir un outil manquant d’optimisation : Sora doit avoir l’empreinte électrique et de calcul la plus légère possible sur l’infrastructure de la société. Il faut que Sora puisse absorber un usage massif sans éreinter OpenAI.

Les travaux d’optimisation sont en cours, d’après Mira Murati. Surtout, il y a ensuite le timing de l’élection. Avec une campagne qui va certainement monter en puissance au fil des mois, et en raison de toutes les dérives susceptibles de se produire, dont celui de la désinformation, la sortie de Sora pourrait en souffrir.

« Nous ne publierons rien dont nous ne soyons pas sûrs de l’impact »

Mira Murati

« Vous savez, c’est assurément une considération à prendre en compte pour les questions de désinformation et de préjugés préjudiciables », a reconnu Mira Murati. En conséquence, a-t-elle poursuivi, « nous ne publierons rien dont nous ne soyons pas sûrs de l’impact sur les élections de portée globale ou sur d’autres questions ».

Tests en cours pour limiter les dégâts

De fait, il est aujourd’hui impossible d’essayer Sora. Seule une toute petite poignée de personnes triées sur le volet y a accès, dont les membres de « l’équipe rouge », chargée de pousser l’IA générative de vidéo dans ses retranchements, afin de déceler tout problème de fonctionnement. Le but est de les corriger avant l’ouverture publique.

Cette équipe rouge sert à dénicher des vulnérabilités et contribue à la mise en place de garde-fous pour ne pas générer n’importe quoi. En clair, il faut que Sora soit safe for work (SFW), c’est-à-dire qu’il maintienne une attitude convenant à toute la famille, en somme. Il faut donc traquer les biais, les fragilités et les mauvais comportements.

Globalement, Sora devrait reprendre l’essentiel des règles déjà existantes chez ChatGPT et Dall-E, afin d’avoir une homogénéité et une cohérence à travers tous les outils conçus par OpenAI. Par exemple, il n’est pas question d’autoriser des vidéos artificielles impliquant des personnalités publiques (comme Trump ou Biden, donc).

Source : Numerama avec Midjourney
Images créées avec IA mettant en scène Donald Trump. // Source : Numerama avec Midjourney

Concernant la nudité, le péril évident est celui du deepfake pornographique. Les contenus les plus crus pourraient être interdits, mais Mira Murati relève qu’il y a aussi une réflexion sur la possibilité de conserver le droit de créer de la nudité à des fins artistiques. La société travaille avec des artistes et ce point fait partie de leurs échanges.

L’hésitation d’OpenAI rappelle celle de Midjourney. En début d’année, son patron a expliqué réfléchir à bannir la possibilité de créer des images politiques par IA — en particulier durant la campagne présidentielle américaine. Des filtres existent déjà, qui empêchent de créer des visuels imaginaires sur Trump ou Biden.

La réflexion sur la bonne fenêtre de lancement pour Sora souffre toutefois de certaines limites.

D’abord, elle occulte le fait qu’il y a déjà des fake news de nature politique qui circulent sur le net. Ensuite, l’enjeu de l’IA générative spécialisée dans la vidéo n’est pas circonscrit à Sora. Il y a et il y aura d’autres outils, plus ou moins maîtrisables. Et surtout, le défi ne sera pas réglé même après une sortie post 5 novembre. Quid des futures élections ?

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !