Meta, la maison mère de Facebook, a augmenté ses efforts dans le domaine de l’intelligence artificielle, selon la presse américaine. Objectif : avoir un outil aussi performant que ChatGPT.

La course à l’intelligence artificielle passe aussi par une course au matériel. Justement, Meta, la maison mère de Facebook, a récemment accéléré le pas dans ce domaine. Il est rapporté que le géant des réseaux sociaux a augmenté ses achats de certaines puces spécialisées dans l’IA, pour les faire figurer dans ses futurs centres de traitement de données (data centers).

C’est le Wall Street Journal qui rapporte l’information, dans son édition du 10 septembre 2023. Sous l’impulsion du PDG de Meta, Mark Zuckerberg, le quotidien économique américain évoque le désir de l’entreprise américaine de se doter d’un nouveau grand modèle de langage, suffisamment performant pour pouvoir rivaliser avec GPT-4 d’OpenAI.

Les grands modèles de langage peuvent être vus comme le moteur et le carburant des agents conversationnels comme ChatGPT d’OpenAI. C’est sur eux que reposent les chatbots. Ces modèles ont été formés à partir de grandes quantités de données, et c’est sur ces vastes corpus que sont appliquées des règles de fonctionnement, en vue de satisfaire une tâche particulière.

GPT-4 est le tout dernier grand modèle de langage concocté par OpenAI pour faire vivre ChatGPT et il est considéré comme le mètre-étalon du secteur. Du moins, tant que ne sort pas GPT-5, dont l’arrivée apparaît inéluctable ; dans le cas contraire, la société fondée par Sam Altman, et qui est partenaire de Microsoft, prendrait le risque de se faire rattraper et doubler.

Concurrence accrue dans l’IA générative

Facebook a déjà conçu deux grands modèles de langage, avec la première génération de LLaMA (Large Language Model Meta AI) puis la seconde. Mais, en particulier pour LLaMA 2, l’annonce faite en juillet révélait aussi la nécessité pour Meta de passer par un partenaire, en l’occurrence Microsoft, pour faire tourner LLaMA sur son architecture cloud (Azure).

Il n’y a donc pas uniquement le souhait de se doter d’un modèle de langage aussi poussé que GPT-4. Le projet de Meta vise aussi à s’émanciper de Microsoft, en mobilisant sa propre infrastructure, plutôt que celle d’une autre entreprise pour entraîner et animer le système. La formation elle-même est évoquée pour le début de l’année prochaine.

Dans ce cadre, Meta a accru son acquisition des puces H100 de Nvidia, qui sont adaptées aux traitements dans l’intelligence artificielle. Ces puces sont réputées. D’ailleurs, elles sont si performantes que les États-Unis ont interdit leur export en Chine, avec qui Washington est dans une guerre technologique, obligeant Nvidia à inventer une version amoindrie du modèle (H800).

Source : Nvidia
Une puce H100. // Source : Nvidia

Autre objectif de ce futur grand modèle de langage : fournir un système accessible gratuitement aux entreprises et open source. Objectif évident : il s’agirait d’inciter les sociétés à utiliser plutôt ce système pour créer des applications avec l’IA, plutôt qu’un autre. Au passage, Meta pourrait aussi en profiter pour améliorer cette IA via son utilisation par des tiers.

Dans cette course à l’intelligence artificielle, Meta a toutefois un problème : il n’est pas seul sur la piste. Même si l’entreprise cherche à accélérer, avec davantage de puces et, et à se débrouiller seul, en s’appuyant sur sa propre infrastructure, elle doit faire face aux efforts de la concurrence. Et, eux aussi entendent faire la course en tête.

Outre OpenAI, qui finira bien par sortir GPT-5, ce qui pourrait fixer un tout nouveau standard pour les chatbots, d’autres sociétés de premier plan affûtent leurs armes. On peut surtout à Google avec Bard et LaMDA. On pourrait aussi évoquer Microsoft avec Copilot, Amazon avec Bedrock ou encore Apple et son grand très mystérieux projet Ajax.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !