Back to Blog

NVIDIA Vera Rubin révolutionne les GPU avec des racks de 600 kilowatts et des mémoires d'un million de tokens

NVIDIA Vera Rubin pousse les centres de données vers des racks de 600 kW d'ici 2027, offrant des gains de performance de 7,5x tout en exigeant une transformation complète de l'infrastructure.

NVIDIA Vera Rubin révolutionne les GPU avec des racks de 600 kilowatts et des mémoires d'un million de tokens

Le PDG de NVIDIA, Jensen Huang, a lâché une bombe lors du GTC 2025, envoyant les équipes d'infrastructure chercher leurs calculatrices : la plateforme Vera Rubin poussera les racks de centres de données à 600 kilowatts d'ici 2027.¹ Cette annonce marque un changement fondamental dans le fonctionnement des centres de données, forçant une refonte complète de la distribution électrique, des systèmes de refroidissement et de l'infrastructure physique qui est restée essentiellement inchangée depuis des décennies.

La plateforme Vera Rubin représente le bond le plus ambitieux de NVIDIA à ce jour. Ce système multi-composants combine le CPU personnalisé Vera, le GPU de nouvelle génération Rubin et l'accélérateur spécialisé Rubin CPX (Context Processing eXtension), conçu spécifiquement pour les charges de travail IA d'un million de tokens.² Contrairement aux améliorations incrémentales typiques des générations de GPU, la variante Vera Rubin NVL144 CPX offre 7,5x les performances IA des systèmes Blackwell GB300 actuels tout en changeant fondamentalement la façon dont les GPU sont packagés, refroidis et déployés.³

« Nous sommes la première entreprise technologique de l'histoire à annoncer quatre générations de quelque chose », a expliqué Huang à Data Center Dynamics, exposant la feuille de route de NVIDIA jusqu'en 2028.⁴ Cette transparence sert un objectif critique : donner aux fournisseurs d'infrastructure, aux opérateurs de centres de données et aux entreprises comme Introl le délai nécessaire pour se préparer à ce qui équivaut à une réimagination complète de l'infrastructure IA.

[caption id="" align="alignnone" width="2522"] Spécifications de la plateforme NVIDIA Vera Rubin NVL144 montrant 3,6 exaflops de performance d'inférence FP4 et une amélioration de 3,3x par rapport au GB300 NVL72, arrivant au second semestre 2026. Spécifications de la plateforme NVIDIA Vera Rubin NVL144 montrant 3,6 exaflops de performance d'inférence FP4 et une amélioration de 3,3x par rapport au GB300 NVL72, arrivant au second semestre 2026. [/caption]

## La révolution architecturale commence par le silicium personnalisé.

[caption id="" align="alignnone" width="2520"] Feuille de route complète de NVIDIA de Blackwell à Feynman, montrant l'évolution des architectures rack Oberon à Kyber supportant jusqu'à 600 kW de consommation électrique. Feuille de route complète de NVIDIA de Blackwell à Feynman, montrant l'évolution des architectures rack Oberon à Kyber supportant jusqu'à 600 kW de consommation électrique. [/caption]

Le CPU Vera marque le départ de NVIDIA des conceptions ARM standard, avec 88 cœurs ARM personnalisés avec multithreading simultané, permettant 176 processeurs logiques.⁵ NVIDIA appelle ces cœurs personnalisés « Olympus », et la conception offre deux fois les performances du CPU Grace utilisé dans les systèmes Blackwell actuels.⁶ Chaque CPU Vera se connecte aux GPU Rubin via une interface NVLink C2C de 1,8 To/s, permettant une bande passante sans précédent entre les éléments de calcul.⁷

Le GPU Rubin standard repousse les limites avec 288 Go de mémoire HBM4 par package, maintenant la même capacité que le Blackwell Ultra B300 mais augmentant de 8 To/s à 13 To/s de bande passante mémoire.⁸ Chaque package Rubin contient deux dies GPU limités par réticule, bien que NVIDIA ait changé sa méthodologie de comptage—ce que Blackwell appelait un GPU (deux dies), Rubin l'appelle deux GPU.⁹ Ce changement reflète la complexité croissante des architectures multi-dies et aide les clients à mieux comprendre les ressources de calcul réelles dans chaque système.

L'élément le plus innovant arrive sous la forme du Rubin CPX, un accélérateur conçu spécifiquement pour le traitement de contextes massifs. La conception monolithique offre 30 pétaFLOPs de calcul NVFP4 avec 128 Go de mémoire GDDR7 économique, spécifiquement optimisée pour les mécanismes d'attention dans les modèles transformer.¹⁰ Le CPX atteint des capacités d'attention 3x plus rapides par rapport aux systèmes GB300 NVL72, permettant aux modèles IA de traiter des contextes d'un million de tokens—équivalent à une heure de vidéo ou des bases de code entières—sans dégradation de performance.¹¹

Le déploiement exige une refonte complète de l'infrastructure.

Le système standard Vera Rubin NVL144, prévu pour arriver au second semestre 2026, maintient la compatibilité avec l'infrastructure GB200/GB300 existante, utilisant l'architecture rack Oberon familière.¹² Le système intègre 144 dies GPU (72 packages), 36 CPU Vera, et offre 3,6 exaFLOPS de performance d'inférence FP4—une amélioration de 3,3x par rapport à Blackwell Ultra.¹³ La consommation électrique reste gérable à environ 120-130 kW par rack, similaire aux déploiements actuels.

La variante Vera Rubin NVL144 CPX pousse les performances plus loin, intégrant 144 GPU Rubin CPX aux côtés de 144 GPU Rubin standard et 36 CPU Vera pour offrir huit exaFLOPs de calcul NVFP4—cette amélioration de 7,5x par rapport au GB300 NVL72—avec 100 To de mémoire haute vitesse et 1,7 Po/s de bande passante mémoire dans un seul rack.¹⁴

Tout change avec Rubin Ultra et l'architecture rack Kyber en 2027. Le système NVL576 intègre 576 dies GPU dans un seul rack, consommant 600 kW de puissance—cinq fois les systèmes actuels.¹⁵ La conception Kyber fait pivoter les lames de calcul de 90 degrés en orientation verticale, intégrant quatre pods de 18 lames chacun dans le rack.¹⁶ Chaque lame héberge huit GPU Rubin Ultra aux côtés des CPU Vera, atteignant des densités qui semblaient impossibles il y a seulement quelques années.

[caption id="" align="alignnone" width="2522"] Système NVIDIA Blackwell actuel avec 72 GPU offrant 1,1 exaflops Système NVIDIA Blackwell actuel avec 72 GPU offrant 1,1 exaflops [/caption]

[caption id="" align="alignnone" width="2524"] Futur système NVIDIA Rubin évoluant vers 576 GPU et 15 exaflops dans un seul rack de 600 kW Futur système NVIDIA Rubin évoluant vers 576 GPU et 15 exaflops dans un seul rack de 600 kW [/caption]

Le refroidissement de ces systèmes nécessite une immersion liquide complète sans ventilateurs—un départ des systèmes actuels qui utilisent encore un certain refroidissement par air pour les composants auxiliaires.¹⁷ CoolIT Systems et Accelsius ont déjà démontré des solutions de refroidissement capables de gérer des racks de 250 kW avec des températures d'eau d'entrée de 40°C, validant la voie technologique vers les déploiements de 600 kW.¹⁸ Le rack Kyber inclut un sidecar dédié pour l'infrastructure d'alimentation et de refroidissement, nécessitant effectivement deux emplacements de rack pour chaque système de 600 kW.¹⁹

L'évolution de l'architecture électrique permet le calcul à l'échelle du mégawatt.

La transition de NVIDIA vers la distribution électrique 800 VDC répond aux limitations physiques fondamentales de l'infrastructure actuelle. La distribution traditionnelle à 54V dans le rack nécessiterait 64U d'étagères d'alimentation pour les systèmes à l'échelle Kyber, ne laissant aucune place pour le calcul réel.²⁰ L'architecture 800V élimine la conversion AC/DC au niveau du rack, améliore l'efficacité de bout en bout jusqu'à 5% et réduit les coûts de maintenance jusqu'à 70%.²¹

La nouvelle infrastructure électrique supporte des racks allant de 100 kW à plus de 1 MW, utilisant le même backbone, et fournit l'évolutivité nécessaire pour les générations futures.²² Les entreprises déployant Vera Rubin doivent planifier des mises à niveau électriques massives—un seul rack NVL576 consomme autant d'énergie que 400 foyers typiques. Les centres de données planifiant des déploiements pour 2027 devraient commencer les mises à niveau d'infrastructure maintenant, y compris les connexions électriques à l'échelle des services publics et potentiellement une génération sur site.

Pour les spécialistes de l'infrastructure comme Introl, ce changement crée des opportunités sans précédent. L'expertise de l'entreprise dans le déploiement d'infrastructures GPU à hyperscale, gérant plus de 100 000 GPU à l'échelle mondiale, et sa présence étendue en APAC les positionnent parfaitement pour soutenir les déploiements complexes que Vera Rubin exige.²³ Les organisations ont besoin de partenaires qui comprennent non seulement le déploiement GPU mais la danse complexe de l'alimentation, du refroidissement et du réseau requise pour les systèmes de 600 kW.

Les gains de performance justifient l'investissement infrastructure.

La variante Vera Rubin NVL144 CPX démontre le potentiel de la plateforme avec ses huit exaFLOPS de calcul NVFP4, aux côtés de 100 To de mémoire haute vitesse et 1,7 Po/s de bande passante mémoire, le tout dans un seul rack.²⁴ NVIDIA affirme que les organisations peuvent atteindre un retour sur investissement de 30x à 50x, se traduisant par 5 milliards de dollars de revenus à partir d'un investissement en capital de 100 millions de dollars.²⁵

Parmi les premiers adoptants figure le Leibniz Supercomputing Centre en Allemagne, qui déploie le supercalculateur Blue Lion avec Vera Rubin pour atteindre 30 fois plus de puissance de calcul que leur système actuel.²⁶ Le système Doudna du Lawrence Berkeley National Lab fonctionnera également sur Vera Rubin, combinant simulation, données et IA en une seule plateforme pour le calcul scientifique.²⁷

La spécialisation du Rubin CPX pour le traitement de contexte répond à un goulot d'étranglement critique dans les systèmes IA actuels. Des entreprises comme Cursor, Runway et Magic explorent déjà comment le CPX peut accélérer les assistants de codage et les applications de génération vidéo qui nécessitent le traitement simultané de millions de tokens.²⁸ La capacité de maintenir des bases de code entières ou des heures de vidéo en mémoire active change fondamentalement ce que les applications IA peuvent accomplir.

Les défis d'infrastructure créent des opportunités de marché.

Le bond vers les racks de 600 kW expose des réalités dures sur les capacités actuelles des centres de données. La plupart des installations peinent avec des racks de 40 kW ; même les centres de données IA de pointe dépassent rarement 120 kW. La transition nécessite non seulement de nouveaux systèmes de refroidissement mais des reconceptions complètes des installations, des sols en béton capables de supporter des charges massives aux sous-stations électriques dimensionnées pour des opérations industrielles.

« La question reste de savoir combien d'installations de centres de données existantes seront capables de supporter une telle configuration dense », note The Register, soulignant que la nature sur mesure des racks Kyber signifie que les installations ont besoin d'une infrastructure construite à cet effet.²⁹ Les développements greenfield dans les régions avec un surplus d'énergie renouvelable ou nucléaire—Scandinavie, Québec et Émirats arabes unis—mèneront probablement l'adoption.³⁰

Le calendrier donne à l'industrie du temps mais exige une action immédiate. Les organisations planifiant l'infrastructure IA pour 2027 et au-delà doivent prendre des décisions maintenant concernant les emplacements des installations, l'approvisionnement en énergie et l'architecture de refroidissement. Le délai de trois ans reflète la complexité du déploiement d'une infrastructure qui opère à la limite de ce qui est physiquement possible.

La route au-delà de Vera Rubin

La feuille de route de NVIDIA s'étend au-delà de Vera Rubin vers l'architecture Feynman en 2028, poussant probablement vers des racks d'un mégawatt.³¹ Le PDG de Vertiv, Giordano Albertazzi, suggère qu'atteindre une densité à l'échelle du MW nécessitera « une révolution supplémentaire dans le refroidissement liquide, et un changement de paradigme côté alimentation ».³² La trajectoire semble inévitable—les charges de travail IA exigent des augmentations exponentielles de densité de calcul, et l'économie favorise la concentration plutôt que la distribution.

Le passage d'améliorations incrémentales à des changements révolutionnaires dans l'infrastructure GPU reflète la transformation IA plus large. Tout comme les grands modèles de langage sont passés de milliards à des trillions de paramètres, l'infrastructure qui les supporte doit faire des bonds similaires. Vera Rubin représente non seulement des GPU plus rapides mais une refonte fondamentale du fonctionnement de l'infrastructure de calcul.

Pour les entreprises comme Introl spécialisées dans le déploiement d'infrastructure GPU, Vera Rubin crée une opportunité générationnelle. Les organisations ont besoin de partenaires capables de naviguer la complexité des déploiements de 600 kW, de la planification initiale à la mise en œuvre et l'optimisation continue. Les entreprises qui déploient avec succès Vera Rubin gagneront des avantages compétitifs significatifs en capacités IA, tandis que celles qui hésitent risquent de perdre alors que l'industrie court vers l'IA exascale.

Conclusion

La plateforme Vera Rubin de NVIDIA force l'industrie des centres de données à confronter des vérités inconfortables sur les limitations d'infrastructure tout en offrant des capacités de calcul sans précédent. Les racks de 600 kW de 2027 représentent plus qu'une simple consommation électrique plus élevée—ils marquent une transformation complète dans la façon dont l'infrastructure IA est construite, refroidie et exploitée. Les organisations qui commencent à planifier maintenant, en partenariat avec des spécialistes d'infrastructure expérimentés qui comprennent les complexités des déploiements de nouvelle génération, seront les mieux positionnées pour exploiter les capacités révolutionnaires que Vera Rubin permet.

L'arrivée de la plateforme en 2026-2027 donne à l'industrie le temps de se préparer, mais le compte à rebours a commencé. Les centres de données conçus aujourd'hui doivent anticiper les exigences de demain, et Vera Rubin rend clair que demain exige des départs radicaux de la pensée conventionnelle. Les entreprises qui embrassent cette transformation alimenteront la prochaine génération de percées IA, des modèles de langage d'un million de tokens aux systèmes de génération vidéo en temps réel qui semblent relever de la science-fiction aujourd'hui.

Références

¹ The Register. « Nvidia's Vera Rubin CPU, GPUs chart course for 600kW racks. » 19 mars 2025. https://www.theregister.com/2025/03/19/nvidia_charts_course_for_600kw.

² NVIDIA Newsroom. « NVIDIA Unveils Rubin CPX: A New Class of GPU Designed for Massive-Context Inference. » 2025. https://nvidianews.nvidia.com/news/nvidia-unveils-rubin-cpx-a-new-class-of-gpu-designed-for-massive-context-inference.

³ Ibid.

⁴ Data Center Dynamics. « GTC: Nvidia's Jensen Huang, Ian Buck, and Charlie Boyle on the future of data center rack density. » 21 mars 2025. https://www.datacenterdynamics.com/en/analysis/nvidia-gtc-jensen-huang-data-center-rack-density/.

⁵ TechPowerUp. « NVIDIA Unveils Vera CPU and Rubin Ultra AI GPU, Announces Feynman Architecture. » 2025. https://www.techpowerup.com/334334/nvidia-unveils-vera-cpu-and-rubin-ultra-ai-gpu-announces-feynman-architecture.

⁶ CNBC. « Nvidia announces Blackwell Ultra and Vera Rubin AI chips. » 18 mars 2025. https://www.cnbc.com/2025/03/18/nvidia-announces-blackwell-ultra-and-vera-rubin-ai-chips-.html.

⁷ Yahoo Finance. « Nvidia debuts next-generation Vera Rubin superchip at GTC 2025. » 18 mars 2025. https://finance.yahoo.com/news/nvidia-debuts-next-generation-vera-rubin-superchip-at-gtc-2025-184305222.html.

⁸ Next Platform. « Nvidia Draws GPU System Roadmap Out To 2028. » 5 juin 2025. https://www.nextplatform.com/2025/03/19/nvidia-draws-gpu-system-roadmap-out-to-2028/.

⁹ SemiAnalysis. « NVIDIA GTC 2025 – Built For Reasoning, Vera Rubin, Kyber, CPO, Dynamo Inference, Jensen Math, Feynman. » 4 août 2025. https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/.

¹⁰ NVIDIA Newsroom. « NVIDIA Unveils Rubin CPX: A New Class of GPU Designed for Massive-Context Inference. »

¹¹ Ibid.

¹² Tom's Hardware. « Nvidia announces Rubin GPUs in 2026, Rubin Ultra in 2027, Feynman also added to roadmap. » 18 mars 2025. https://www.tomshardware.com/pc-components/gpus/nvidia-announces-rubin-gpus-in-2026-rubin-ultra-in-2027-feynam-after.

¹³ The New Stack. « NVIDIA Unveils Next-Gen Rubin and Feynman Architectures, Pushing AI Power Limits. » 14 avril 2025. https://thenewstack.io/nvidia-unveils-next-gen-rubin-and-feynman-architectures-pushing-ai-power-limits/.

¹⁴ NVIDIA Newsroom. « NVIDIA Unveils Rubin CPX: A New Class of GPU Designed for Massive-Context Inference. »

¹⁵ Data Center Dynamics. « Nvidia's Rubin Ultra NVL576 rack expected to be 600kW, coming second half of 2027. » 18 mars 2025. https://www.datacenterdynamics.com/en/news/nvidias-rubin-ultra-nvl576-rack-expected-to-be-600kw-coming-second-half-of-2027/.

¹⁶ Tom's Hardware. « Nvidia shows off Rubin Ultra with 600,000-Watt Kyber racks and infrastructure, coming in 2027. » 19 mars 2025. https://www.tomshardware.com/pc-components/gpus/nvidia-shows-off-rubin-ultra-with-600-000-watt-kyber-racks-and-infrastructure-coming-in-2027.

¹⁷ Data Center Dynamics. « GTC: Nvidia's Jensen Huang, Ian Buck, and Charlie Boyle on the future of data center rack density. »

¹⁸ Data Center Frontier. « CoolIT and Accelsius Push Data Center Liquid Cooling Limits Amid Soaring Rack Densities. » 2025. https://www.datacenterfrontier.com/cooling/article/55281394/coolit-and-accelsius-push-data-center-liquid-cooling-limits-amid-soaring-rack-densities.

¹⁹ Data Center Dynamics. « GTC: Nvidia's Jensen Huang, Ian Buck, and Charlie Boyle on the future of data center rack density. »

²⁰ NVIDIA Technical Blog. « NVIDIA 800 VDC Architecture Will Power the Next Generation of AI Factories. » 20 mai 2025. https://developer.nvidia.com/blog/nvidia-800-v-hvdc-architecture-will-power-the-next-generation-of-ai-factories/.

²¹ Ibid.

²² Ibid.

²³ Introl. « Coverage Area. » Consulté en 2025. https://introl.com/coverage-area.

²⁴ NVIDIA Newsroom. « NVIDIA Unveils Rubin CPX: A New Class of GPU Designed for Massive-Context Inference. »

²⁵ Ibid.

²⁶ NVIDIA Blog. « Blue Lion Supercomputer Will Run on NVIDIA Vera Rubin. » 10 juin 2025. https://blogs.nvidia.com/blog/blue-lion-vera-rubin/.

²⁷ Ibid.

²⁸ NVIDIA Newsroom. « NVIDIA Unveils Rubin CPX: A New Class of GPU Designed for Massive-Context Inference. »

²⁹ The Register. « Nvidia's Vera Rubin CPU, GPUs chart course for 600kW racks. »

³⁰ Global Data Center Hub. « Nvidia's 600kW Racks Are Here (Is Your Infrastructure Ready?). » 23 mars 2025. https://www.globaldatacenterhub.com/p/issue-8-nvidias-600kw-racks-are-hereis.

³¹ TechPowerUp. « NVIDIA Unveils Vera CPU and Rubin Ultra AI GPU, Announces Feynman Architecture. »

³² Data Center Dynamics. « GTC: Nvidia's Jensen Huang, Ian Buck, and Charlie Boyle on the future of data center rack density. »

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING