À l’occasion de sa conférence GTC, Nvidia a levé la voile sur la puce Blackwell B200, un nouveau GPU qu’il présente comme une « super puce ». Avec 208 milliards de transistors et une consommation énergétique en baisse, la puce Blackwell est la nouvelle arme fatale pour les acteurs de l’intelligence artificielle générative.

Quand vous parlerez à ChatGPT ou génèrerez une vidéo avec Sora dans les prochains mois, ce seront peut-être les puces Blackwell B200 de Nvidia qui opèreront en coulisses.

Le 18 mars, à l’occasion de sa grande conférence GTC, Nvidia a levé la voile sur une nouvelle génération de GPU que les créateurs d’intelligence artificielle générative s’empresseront sans doute de commander par milliers. Déjà en position de force sur ce secteur (ses cartes graphiques font tourner la plupart des services du marché, ce qui a fait tripler sa valeur financière en un an), Nvidia creuse l’écart avec la concurrence avec de nouveaux composants pensés pour l’IA. Le Blackwell B200 n’est pas seulement plus puissant, il est aussi annoncé comme bien moins énergivore.

Utiliser beaucoup moins d’énergie : l’exploit de Blackwell

Aujourd’hui, Nvidia doit une partie de son succès aux puces H100, que s’arrachent les entreprises comme OpenAI, Midjourney, Google ou Adobe. Ces cartes graphiques sont très bien adaptées à l’IA, ce qui a permis à Nvidia de voir ses ventes exploser en seulement quelques mois.

Avec un GPU H100 sous l’architecture Hopper (celle qui précède Blackwell), un grand modèle de langage (LLM, pour large language model) avec 1 800 milliards de paramètres a besoin de 8 000 puces pour s’entraîner, avec 15 mégawatts d’alimentation. Avec sa nouvelle architecture Blackwell, Nvidia promet une division par quatre du nombre de puces nécessaires (2 000 suffiraient donc). L’entreprise annonce aussi une consommation énergétique de 4 mégawatts, pour une puissance de calcul équivalente. De quoi faciliter le fonctionnement des LLM sur des installations plus modestes.

Les différentes combinaisons proposées par Nvidia. // Source : Nvidia
Les différentes combinaisons proposées par Nvidia. Le GB200 à gauche, le GB200 NVLink 2 à droite. // Source : Nvidia

Pour séduire les entreprises, Nvidia a aussi développé une super-puce appelée GB200. Il s’agit d’une combinaison de deux GPU Blackwell et d’un CPU Grace, que les poids lourds du secteur de l’IA générative achèteront sans doute en grand nombre. Le serveur GB200 NVL72, aussi proposé par Nvidia, intègre 36 CPU et 72 GPU d’un seul coup, pour un total de 80 pétaflops. Certains racks peuvent monter jusqu’à 576 GPU, pour une puissance globale de 11,5 exaflops. Des clients comme Amazon, Google, Microsoft et Oracle ont déjà manifesté leur intérêt.

Nvidia, le roi de l’IA malgré lui

Très populaire depuis plusieurs années, notamment dans le secteur du jeu vidéo, Nvidia est devenu malgré lui la star de l’IA, sans s’être publiquement intéressé à ce domaine avant l’émergence de ChatGPT et de ses rivaux. La nouvelle architecture Blackwell va permettre à Nvidia de continuer à croître, alors que la concurrence peine à s’aligner pour l’instant. Certains misent sur des approches locales avec moins de puissance, mais les puces de Nvidia deviennent indispensables dès que le traitement est trop lourd.

L'action Nvidia depuis 1 an.
L’action Nvidia depuis 1 an. // Source : Capture Numerama

Avec 208 milliards de transistors et un moteur de transformation de deuxième génération capable d’utiliser 4 bits par neurone (au lieu de 8), la B200 consolide la position de Nvidia. L’entreprise prédit que Blackwell sera le lancement le plus fort de son histoire, avec de premières livraisons d’ici à la fin de l’année.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !