Microsoft a un projet consistant à développer ses propres puces, optimisées pour l’intelligence artificielle (IA). Des composants qui doivent lui permettre de dépenser moins d’argent pour faire tourner ses projets dans l’IA, comme ChatGPT.

On l’a vu avec le partenariat à plusieurs milliards de dollars conclu avec OpenAI : Microsoft met le paquet dans l’intelligence artificielle. L’entreprise américaine a par exemple intégré la dernière version de ChatGPT (avec GPT-4) dans Bing. Elle a aussi dévoilé Copilot. Elle a également ajouté un service de génération d’image à la volée, avec DALL-E.

Microsoft n’a, d’une certaine façon, pas le choix : ses rivaux (Google, Facebook et Amazon) sont aussi lancés dans la course à l’IA. Ne pas être dans le coup exposerait la firme de Redmond un risque de déclassement. Si elle n’avait rien à proposer, sa clientèle pourrait se tourner vers la concurrence, qui se ferait un plaisir de l’accueillir. Ce serait une catastrophe.

Mais il y a aussi des considérations stratégiques. Peut-être qu’avec l’IA, Microsoft a une occasion en or d’affaiblir Google, y compris dans la recherche en ligne, secteur où la firme de Mountain View domine tous les débats depuis vingt ans. C’est une vraie révolution qui se profile et Google sait que son avenir est menacé par l’IA et cela l’inquiète.

ChatGPT
ChatGPT connaît un succès immense depuis son lancement, fin novembre 2022. Mais son fonctionnement nécessite de très grosses ressources informatiques. // Source : Focal Foto

Faire tourner l’IA coûte cher. Extrêmement cher, même. En février, Forbes titrait « ChatGPT brûle des millions de dollars chaque jour ». Un montant réévalué en avril par un analyste, qui délivre une estimation moindre. La dépense quotidienne pour faire marcher l’agent conversationnel (chatbot) serait plutôt de l’ordre de 700 000 dollars. Cela reste très coûteux.

Ce n’est pas surprenant, néanmoins : l’IA nécessite des moyens informatiques colossaux pour qui désire lancer des services et des produits dont la portée est globale. Des moyens d’autant plus importants lorsque l’on s’adresse à des millions d’utilisateurs à travers le monde, et qui attendent tous des résultats instantanés ou presque.

Cette puissance est nécessaire pour la constitution des modèles sur lesquels les algorithmes vont être réglés, mais aussi pour toute la séquence d’entraînement à proprement parler (l’apprentissage automatique). À cela s’ajoute ensuite l’exécution des requêtes des internautes, qui peuvent être des millions, et qui sollicitent aussi massivement les ressources.

Le projet Athena de Microsoft pour des puces dédiées à l’IA

Dans ces conditions, il n’est pas surprenant d’apprendre que Microsoft travaille au développement de ses propres puces. Dans son édition du 18 avril, The Information annonce que Microsoft prépare un processeur permettant de contenir la hausse des coûts de l’apprentissage automatique. Ce projet a un nom de code, Athéna, et existe depuis 2019, selon le média américain.

Cette date, que confirment deux sources consultées par nos confrères, s’avère être aussi l’année du premier investissement conséquent de Microsoft dans OpenAI. À l’époque, le montant était d’un milliard de dollars. Une somme qui apparaît petite aujourd’hui, puisque le géant des logiciels a multiplié cette mise par dix, quatre ans plus tard.

D’après The Information, des premières puces sont disponibles pour Microsoft et OpenAI, afin de les tester. L’objectif des deux partenaires est de trouver un moyen de réduire les coûts de fabrication de ces composants, cruciaux, et par ailleurs d’en développer des modèles qui nécessitent une consommation électrique moindre. Car l’IA a aussi besoin de beaucoup d’énergie.

La construction de data center et l'hébergement de données en Europe est un enjeu important de la souveraineté numérique // Source : Taylor Vick / Unsplash
L’impact de l’IA sur le matériel est un autre enjeu : l’essor de l’intelligence artificielle nécessite aussi d’avoir des composants optimisés, économes en énergie et pas trop coûteux. // Source : Taylor Vick / Unsplash

Ce qui est vrai pour OpenAI (qui a construit ChatGPT) et Microsoft l’est tout autant pour les autres entreprises lancées dans cette compétition. D’ailleurs, les grands rivaux de la tech américaine conçoivent aussi leurs propres puces. C’est le cas de Google, Amazon et Facebook. Ces groupes confient ensuite à l’industrie des puces le soin de les produire.

Le développement de puces plus performantes, moins coûteuses à développer et ayant une empreinte énergétique maîtrisée, voire moindre, apparaît comme l’un des grands enjeux à résoudre pour l’avenir du développement de l’IA. En la matière, la recherche fondamentale s’avère cruciale, en parallèle des innovations qui ont lieu dans l’industrie des puces.

Dans ce domaine, des avancées existent et la France affiche des résultats. Début mars par exemple, le Centre national de la recherche scientifique (CNRS) pointait les travaux d’une équipe associant des laboratoires du CNRS, le CEA Leti (Laboratoire d’électronique des technologies de l’information du Commissariat à l’énergie atomique) et la startup Hawai.tech.

Leurs recherches ont permis de bâtir un prototype de machine qui réalise une tâche d’IA (reconnaître un geste humain) en utilisant des milliers de fois moins d’énergie qu’une solution traditionnelle. Ici, une nouvelle technologie de nanocomposants, les memristors, a été utilisée afin de réduire les mouvements de données. Typiquement le genre de progrès qui intéressera le secteur de l’IA.

Nouveauté : Découvrez

La meilleure expérience de Numerama, sans publicité,
+ riche, + zen, + exclusive.

Découvrez Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.