En octobre 2025, Starcloud, une start‑up soutenue par Nvidia, voulait prouver une chose : envoyer des serveurs dans l’espace ne relève plus de la science‑fiction. Un mois plus tard, son satellite Starcloud‑1 de 60 kg, de la taille d’un mini‑frigo, devenait ainsi le premier GPU (un H100) conçu pour des data centers à être envoyé en orbite. L’idée initiale : montrer qu’on peut entraîner et faire tourner des modèles (comme NanoGPT) directement dans l’espace, avec des performances proches de ce que peut offrir un petit cluster terrestre dédié à ce type de tâche. Et ce, tout en testant grandeur nature le refroidissement par rayonnement et la durabilité du matériel. Une démonstration que Nvidia souhaite désormais relever à une toute autre échelle.
Au GTC de ce 16 mars 2026, Nvidia ne parle plus seulement d’« un H100 dans l’espace », mais lance officiellement une famille de plateformes IA pour l’orbite, regroupées sous la bannière « Space Computing ». La pièce maîtresse côté orbite est le module Space‑1 Vera Rubin, un calculateur CPU+GPU basé sur la plateforme Vera Rubin, conçu dès le départ pour des satellites et des data centers orbitaux, avec des contraintes strictes de taille, poids et consommation. De quoi permettre aux applications d’IA « de fonctionner de manière transparente du sol à l’espace et de l’espace à l’espace », et ce « tout en prenant en charge des profils de mission de plus en plus complexes », selon le communiqué.

Comment Nvidia compte-t-il envoyer des serveurs dans l’espace ?
Concrètement, Nvidia présente Space‑1 Vera Rubin comme la version « spécial orbite » de ses puces pour data centers, taillée pour tourner dans un satellite plutôt que dans un hangar bardé de ventilateurs. Le groupe promet qu’en conditions réelles d’utilisation dans l’espace, ce GPU Rubin pourrait offrir jusqu’à 25 fois plus de puissance d’IA qu’un H100, pour faire tourner des modèles déjà entraînés, ce qu’il appelle « inférence spatiale ». Sur le papier, cela suffirait pour faire vivre de premiers mini centres de données en orbite, traiter des images géospatiales directement dans l’espace et rendre les engins un peu plus autonomes dans leurs décisions.
En parallèle, Nvidia mise également sur ses plateformes IGX Thor et Jetson Orin, présentées comme les petits cerveaux collés aux capteurs des satellites, chargés de prendre des décisions rapides avec des modèles légers. Le module Space‑1 Vera Rubin garde, lui, le rôle de mini data center dans l’espace, capable de faire tourner des IA plus lourdes pour plusieurs charges de travail à la fois. Au sol, les gros GPU Blackwell — dont le GPU NVIDIA RTX PRO 6000 Blackwell Server Edition — restent dans les data centers terrestres, où ils retraitent les archives d’images et entraînent les modèles à grande échelle.
Pour Nvidia, l’intérêt de rapprocher des « mini data centers » de l’orbite est simple : traiter plus vite les flots d’images et de signaux géospatiaux générés par les satellites, en ne renvoyant vers la Terre que des informations déjà filtrées plutôt que des téraoctets de données brutes.
« L’informatique spatiale, ultime frontière, est arrivée. À mesure que nous déployons des constellations de satellites et explorons l’espace toujours plus loin, l’intelligence doit être présente partout où les données sont générées », a déclaré Jensen Huang, fondateur et patron de Nvidia. Pour autant, si le projet est prometteur, le dirigeant admet lui-même sa complexité technique.

Faut-il y croire ?
Sur scène, Jensen Huang assume le côté pari technologique. « Nous allons aller dans l’espace », déclare le patron de Nvidia, en expliquant que l’entreprise « construira aussi des centres de données dans l’espace » et qu’elle travaille avec ses partenaires sur ce nouvel ordinateur baptisé Vera Space‑1, destiné à « lancer les data centers dans l’espace ». Il reconnaît pourtant que « c’est quelque chose de très difficile à réaliser » et rappelle une contrainte de physique de base : « dans l’espace, il n’y a pas de conduction, pas de convection, seulement du rayonnement. Nous devons trouver comment refroidir les systèmes. ». Nvidia ne se contente plus d’envoyer un GPU isolé en orbite : le groupe parle désormais explicitement de centres de données spatiaux, tout en admettant que la partie la plus délicate — les systèmes de refroidissement et la durabilité — reste à inventer.
Car sur Terre, un data center compte sur trois manières d’évacuer la chaleur : la conduction, quand la chaleur passe d’un matériau à un autre (du GPU au radiateur, puis au châssis), la convection, quand l’air ou l’eau emportent cette chaleur en circulant (les flux d’air brassés par des ventilateurs, ou les boucles d’eau glacée), et le rayonnement, quand un objet chaud émet de l’énergie sous forme d’infrarouges. Dans le vide spatial, il n’y a plus d’air ni d’eau qui circulent : la conduction ne fait que déplacer la chaleur à l’intérieur de la machine, la convection ne marche plus du tout, et il ne reste que le rayonnement vers le fond froid de l’espace pour se débarrasser des calories.
Que Jensen Huang insiste lui‑même sur ce point montre bien que l’obstacle n’est pas seulement de mettre un GPU en orbite — ce qui a déjà été fait –, mais de concevoir des machines capables de dissiper en continu plusieurs centaines de watts sans air ni eau, pendant des années. Techniquement, on peut croire à des démonstrateurs et à quelques mini centres de calcul très spécialisés. Mais croire, dès aujourd’hui, à un data center spatial à l’échelle du cloud relève encore largement de la promesse. Officiellement, les plateformes IGX Thor et Jetson Orin, ainsi que le GPU RTX PRO 6000 Blackwell Server Edition, sont disponibles dès aujourd’hui, tandis que le module Space‑1 Vera Rubin n’est annoncé que pour plus tard, sans calendrier précis.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !











