
Le PDG de NVIDIA, Jensen Huang, est monté sur scène au Computex 2025 vêtu de sa veste en cuir emblématique et a dévoilé de nouveaux matériels ainsi qu'un paradigme informatique entièrement repensé. Le géant des semi-conducteurs s'est résolument transformé en une entreprise d'infrastructure IA, construisant les fondations de ce que Huang appelle « l'infrastructure de l'intelligence »—la troisième révolution majeure d'infrastructure après l'électricité et Internet.
Ce discours n'était pas qu'une simple annonce de produit—c'était Jensen exposant le plan de NVIDIA pour remodeler le paysage informatique. Les avancées techniques, les pivots stratégiques et les manœuvres de marché qu'il a révélés feront probablement de ce Computex une référence pour les années à venir. Regardez l'intégralité du discours NVIDIA au Computex 2025.
L'évolution stratégique de NVIDIA : Des cartes graphiques au fournisseur d'infrastructure
L'histoire de la transformation de NVIDIA est stupéfiante. En 1993, Jensen voyait une « opportunité de puce à 300 millions de dollars »—un marché substantiel. Avançons jusqu'à aujourd'hui, et il dirige un mastodonte d'infrastructure IA pesant mille milliards de dollars. Une telle croissance explosive ne se produit pas par hasard—NVIDIA s'est fondamentalement réinventé plusieurs fois en cours de route.
Durant son discours, Jensen a souligné les tournants qui ont rendu le NVIDIA d'aujourd'hui possible :
-
2006 : CUDA est arrivé et a bouleversé le calcul parallèle. Soudainement, des développeurs qui n'avaient jamais envisagé d'utiliser des GPU pour le calcul général construisaient des applications qui auraient été impossibles sur des CPU traditionnels.
-
2016 : Le DGX1 est apparu comme le premier système de NVIDIA sans compromis, axé sur l'IA. Dans ce qui ressemble maintenant à une prémonition presque troublante, Jensen a donné la première unité à OpenAI, leur fournissant effectivement les fondations computationnelles qui mèneraient à notre révolution IA actuelle.
-
2019 : L'acquisition de Mellanox, permettant à NVIDIA de reconceptualiser les data centers comme des unités de calcul unifiées
Cette transformation culmine avec la position actuelle de NVIDIA en tant qu'« entreprise d'infrastructure essentielle »—un statut que Huang a souligné en mettant en avant ses feuilles de route publiques sans précédent sur cinq ans, qui permettent une planification mondiale de l'infrastructure pour le déploiement de l'IA.
Redéfinir les métriques de performance : L'économie des tokens
NVIDIA a introduit un changement fondamental dans la façon dont nous mesurons la production computationnelle. Plutôt que des métriques traditionnelles comme les FLOPs ou les opérations par seconde, Huang a positionné les data centers IA comme des usines produisant des « tokens »—des unités d'intelligence computationnelle :
« Les entreprises commencent à parler du nombre de tokens qu'elles ont produits le trimestre dernier et du nombre de tokens qu'elles ont produits le mois dernier. Très bientôt, nous discuterons du nombre de tokens que nous produisons chaque heure, comme le fait chaque usine. »
Ce recadrage connecte directement l'investissement computationnel et la production commerciale, alignant l'infrastructure IA avec les cadres industriels traditionnels. Le modèle positionne NVIDIA à l'épicentre d'un nouveau paradigme économique où l'efficacité computationnelle se traduit directement en capacité commerciale.
Mises à niveau de l'architecture Blackwell : Spécifications et métriques de performance du GB300
[caption id="" align="alignnone" width="1280"]
Système GB200 [/caption]
La mise à jour GB300 de l'architecture Blackwell illustre le cycle d'amélioration des performances incessant de NVIDIA. Prévu pour le T3 2025, le GB300 offre :
-
1,5x d'amélioration des performances d'inférence par rapport au GB200
-
1,5x d'augmentation de la capacité mémoire HBM
-
2x d'amélioration de la bande passante réseau
-
Conception entièrement refroidie par liquide
-
Rétrocompatibilité avec les châssis et systèmes existants
Chaque nœud GB300 délivre environ 40 pétaflops—remplaçant effectivement l'ensemble du supercalculateur Sierra (circa 2018), qui nécessitait 18 000 GPU Volta. Ce gain de performance de 4 000x en six ans dépasse largement la mise à l'échelle traditionnelle de la loi de Moore, démontrant l'approche multifacette de NVIDIA pour l'accélération des performances à travers l'architecture, le logiciel et les innovations d'interconnexion.
MVLink : Redéfinir la technologie d'interconnexion
MVLink représente l'avancée la plus significative dans la technologie d'interconnexion GPU depuis l'introduction de NVLink. Le système permet une désagrégation complète des ressources de calcul à travers un rack entier, transformant 72 GPU (144 dies GPU) en une seule unité computationnelle massive.
Les spécifications techniques sont stupéfiantes :
-
Switches MVLink individuels : 7,2 To/s de bande passante
-
Backbone MVLink : 130 To/s de bande passante all-to-all
-
Implémentation physique : 5 000 câbles coaxiaux de longueur précisément adaptée (environ 3,2 km au total)
-
Densité de puissance : 120 kilowatts par rack (nécessitant un refroidissement liquide)
Pour contexte, Huang a noté que le trafic de pointe de l'ensemble d'Internet est d'environ 900 térabits par seconde (112,5 To/s), ce qui signifie qu'un seul backbone MVLink peut gérer plus de trafic que l'Internet mondial à sa capacité maximale.
MVLink Fusion : Créer un écosystème d'infrastructure IA ouvert

MVLink Fusion pourrait être le coup d'écosystème le plus innovant que NVIDIA ait fait depuis des années. Au lieu de forcer les partenaires à miser tout sur le matériel NVIDIA, ils ouvrent l'architecture pour permettre aux entreprises de construire des systèmes IA semi-personnalisés qui restent connectés à l'univers NVIDIA.
L'approche est étonnamment flexible :
-
Intégration ASIC personnalisée : Vous avez votre accélérateur spécialisé ? Pas de problème. Les partenaires peuvent intégrer des chiplets MVLink pour connecter leur silicium personnalisé à l'écosystème de NVIDIA. C'est comme si NVIDIA disait : « Construisez le matériel spécialisé que vous voulez—assurez-vous juste qu'il peut communiquer avec nos équipements. »
-
Intégration CPU personnalisée : Les fournisseurs de CPU ne sont pas laissés pour compte non plus. Ils peuvent implémenter directement les interfaces chip-to-chip de MVLink, créant une autoroute directe entre leurs processeurs et les GPU Blackwell (ou la prochaine architecture Ruben). MVLink est énorme pour les entreprises investies dans des architectures CPU spécifiques.
Les annonces de partenariat couvrent l'industrie des semi-conducteurs :
-
Partenaires d'implémentation silicium : LCHIP, Astera Labs, Marll, MediaTek
-
Fournisseurs CPU : Fujitsu, Qualcomm
-
Fournisseurs EDA : Cadence, Synopsis
Cette approche positionne stratégiquement NVIDIA pour capturer de la valeur quel que soit le mix matériel spécifique déployé par les clients, reflétant la déclaration candide de Huang : « Rien ne me donne plus de joie que lorsque vous achetez tout chez NVIDIA. Je veux que vous le sachiez. Mais cela me procure une joie immense si vous achetez quelque chose de NVIDIA. »
Déploiement IA d'entreprise : RTX Pro Enterprise et serveur Omniverse

Le RTX Pro Enterprise et le serveur Omniverse représentent l'offre de calcul la plus significative de NVIDIA axée sur l'entreprise, conçue spécifiquement pour intégrer les capacités IA dans les environnements IT traditionnels :
-
Architecture entièrement compatible x86
-
Support des hyperviseurs traditionnels (VMware, Red Hat, Nutanix)
-
Intégration Kubernetes pour une orchestration familière des charges de travail
-
GPU Blackwell RTX Pro 6000s (8 par serveur)
-
Puce réseau CX8 fournissant 800 Gb/s de bande passante
-
1,7x d'amélioration des performances par rapport au Hopper H100
-
4x de performances sur les modèles optimisés comme Deepseek R1
Le système établit une nouvelle enveloppe de performance pour l'inférence IA, mesurée dans un cadre à deux axes : le débit (tokens par seconde) et la réactivité (tokens par seconde par utilisateur)—des métriques critiques pour ce que Huang décrit comme l'ère de la « mise à l'échelle du temps d'inférence » ou « IA pensante ».
Plateforme de données IA : Réimaginer le stockage pour les données non structurées
La plateforme de données IA de NVIDIA introduit une approche fondamentalement différente du stockage d'entreprise :
« Les humains interrogent des bases de données structurées comme SQL... Mais l'IA veut interroger des données non structurées. Elle veut du sémantique. Elle veut du sens. Et donc nous devons créer un nouveau type de plateforme de stockage. »
Les composants clés incluent :
-
NVIDIA AIQ (ou IQ) : Une couche de requête sémantique
-
Nœuds de stockage accélérés par GPU remplaçant les architectures traditionnelles centrées sur CPU
-
Modèles IA post-entraînés avec provenance transparente des données d'entraînement
-
Requêtes 15x plus rapides avec 50% de résultats améliorés par rapport aux solutions existantes
Les partenaires de l'industrie du stockage implémentant cette architecture incluent Dell, Hitachi, IBM, NetApp et Vast, créant un écosystème complet de gestion des données IA d'entreprise.
Opérations IA et robotique : Frameworks logiciels pour l'entreprise intelligente

Le discours a introduit deux frameworks logiciels cruciaux :
-
AI Operations (AIOps) : Une pile complète pour gérer les agents IA dans les contextes d'entreprise, incluant la curation des données, le fine-tuning des modèles, l'évaluation, les garde-fous et la sécurité. Les partenaires incluent Crowdstrike, Data IQ, Data Robots, Elastic, Newonix, Red Hat et Trend Micro.
-
Plateforme Isaac Groot N1.5 : Un écosystème de développement robotique open source incluant :
Moteur physique Newton (développé avec Google DeepMind et Disney Research)
-
Processeur robotique Jetson Thor
-
Système d'exploitation NVIDIA Isaac
-
Blueprint Groot Dreams pour la génération de données de trajectoire synthétiques
L'initiative robotique répond à un défi critique : « Pour que la robotique se concrétise, vous avez besoin d'IA. Mais pour enseigner à l'IA, vous avez besoin d'IA. » Ce schéma d'optimisation récursive exploite l'IA générative pour étendre les données limitées de démonstration humaine en ensembles d'entraînement robotique complets.
La position stratégique de Taïwan dans la révolution de la fabrication IA
Une partie significative du discours a mis en lumière le rôle pivot de Taïwan dans la production et l'implémentation des technologies IA :
-
Les entreprises manufacturières taïwanaises (TSMC, Foxconn, Wistron, Pegatron, Delta Electronics, Quanta, Wiiwin, Gigabyte) déploient NVIDIA Omniverse pour les implémentations de jumeaux numériques.
-
TSMC utilise des outils alimentés par l'IA sur CUDA pour optimiser les agencements de fab et les systèmes de tuyauterie
-
Les partenaires manufacturiers utilisent les jumeaux numériques pour la planification virtuelle et la maintenance prédictive, ainsi que comme « salles de sport pour robots » pour l'entraînement des systèmes robotiques.
-
Foxconn, TSMC, le gouvernement taïwanais et NVIDIA construisent le premier supercalculateur IA à grande échelle de Taïwan.
Huang a davantage cimenté l'engagement de NVIDIA envers la région en annonçant des plans pour « NVIDIA Constellation », un nouveau siège à Taipei.
Analyse technique : Ce que cela signifie pour la stratégie IA d'entreprise
Ces annonces représentent collectivement une réimagination complète de l'informatique d'entreprise avec plusieurs implications stratégiques :
-
Exigences d'échelle computationnelle : Les demandes de performance au temps d'inférence de l'« IA raisonnante » et des systèmes agentiques nécessiteront des besoins de calcul significativement plus élevés que les déploiements initiaux de grands modèles de langage, nécessitant une planification architecturale pour des capacités massives de scale-up et scale-out.
-
Désagrégation de l'IA d'entreprise : L'écosystème MVLink Fusion permet une flexibilité sans précédent dans la construction de systèmes IA hétérogènes, accélérant potentiellement l'adoption d'accélérateurs IA spécialisés tout en maintenant la position de NVIDIA dans l'écosystème grâce à la technologie d'interconnexion.
-
Passage des data centers aux usines d'IA : Nous devons complètement repenser comment nous mesurons la valeur de nos investissements en infrastructure. L'époque où la capacité brute de calcul ou de stockage racontait toute l'histoire est révolue. Maintenant, tout tourne autour de la production de tokens—combien d'unités de sortie IA vos systèmes peuvent-ils générer par seconde, par watt et par dollar ? Jensen ne plaisantait pas quand il a dit que les entreprises rapporteraient bientôt leur production de tokens, comme des métriques manufacturières. Le passage aux usines d'IA réécrira fondamentalement l'économie de la façon dont nous déployons et justifions les dépenses d'infrastructure IA.
-
Intégration des jumeaux numériques : Le fait que chaque grand fabricant taïwanais construise des jumeaux numériques Omniverse nous dit tout ce que nous devons savoir—ce n'est plus juste une démo technologique cool. Les jumeaux numériques sont devenus une infrastructure essentielle pour les entreprises sérieuses au sujet de l'optimisation. Ce qui est particulièrement fascinant, c'est comment cela crée une boucle de rétroaction : les entreprises construisent des jumeaux numériques pour optimiser les processus physiques, puis utilisent ces mêmes environnements pour entraîner l'IA et la robotique, améliorant encore le monde physique. C'est un cycle d'amélioration continue qui ne cesse de s'accélérer.
-
Planification de la main-d'œuvre robotique : La convergence de l'IA agentique et de la robotique physique suggère que les organisations devraient développer des stratégies d'automatisation intégrées numériques et physiques, avec des implications significatives pour la planification de la main-d'œuvre et la conception des installations.
-
Infrastructure définie par logiciel : Malgré les annonces matérielles, l'accent continu de NVIDIA sur les bibliothèques et les frameworks logiciels renforce le fait que l'avantage concurrentiel en IA viendra autant de l'optimisation logicielle que des capacités matérielles brutes.
Naviguer dans la transition vers l'usine d'IA
Transformer les data centers traditionnels en usines d'IA nécessite une expertise spécialisée qui fait le pont entre le déploiement matériel, l'optimisation logicielle et la conception architecturale. Chez Introl, nous implémentons ces solutions d'infrastructure GPU avancées pour les entreprises qui font le saut vers l'informatique IA-first. L'expérience approfondie de notre équipe avec l'écosystème NVIDIA—des déploiements MVLink complexes aux implémentations de jumeaux numériques Omniverse—aide les organisations à naviguer ce changement de paradigme sans la courbe d'apprentissage abrupte typiquement associée à l'infrastructure de pointe. Que vous augmentiez vos capacités d'IA raisonnante ou construisiez votre premier atelier d'usine d'IA, s'associer avec des spécialistes peut accélérer considérablement votre délai de valorisation dans ce paysage en rapide évolution. Prêt à passer à l'action ? Planifiez un appel aujourd'hui.
Conclusion : La troisième ère de l'informatique est arrivée

Le Computex n'était pas juste NVIDIA exhibant des puces plus rapides. Ce que Jensen a présenté a dépassé les annonces habituelles « 20% mieux que l'année dernière » auxquelles nous nous sommes habitués. Il recadre fondamentalement à quoi servent les ordinateurs. Nous avons passé des décennies à construire des machines qui calculent des nombres et déplacent des données. Maintenant, NVIDIA construit des systèmes qui fabriquent l'intelligence comme leur production principale. C'est comme comparer un classeur à un cerveau. Bien sûr, les deux stockent des informations, mais l'un reste là tandis que l'autre crée de nouvelles idées. Le changement peut sembler sémantique jusqu'à ce que vous réalisiez qu'il change tout sur la façon dont nous construisons, déployons et mesurons les systèmes informatiques.
« Pour la première fois de tout notre temps ensemble, non seulement nous créons la prochaine génération d'IT, mais nous l'avons fait plusieurs fois, du PC à Internet en passant par le cloud et le cloud mobile. Nous l'avons fait plusieurs fois. Mais cette fois, non seulement nous créons la prochaine génération d'IT, nous créons aussi une toute nouvelle industrie. »
Cette transition représente le troisième changement de paradigme informatique majeur, suivant la révolution de l'informatique personnelle et l'ère Internet/cloud. Les organisations intégrant ces capacités d'infrastructure IA établiront probablement des avantages concurrentiels insurmontables dans tous les secteurs.
Les usines d'intelligence computationnelle sont en construction aujourd'hui. La question n'est plus de savoir si l'IA transformera les affaires—c'est de savoir si votre organisation construit l'infrastructure pour rester compétitive dans un monde où l'intelligence computationnelle devient aussi fondamentale pour les opérations commerciales que l'électricité.
## Références et ressources supplémentaires
-
Aperçu officiel de l'architecture Blackwell NVIDIA : https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/
-
Documentation technique MVLink NVIDIA : https://developer.nvidia.com/mvlink
-
Plateforme NVIDIA Omniverse : https://www.nvidia.com/en-us/omniverse/
-
Plateforme robotique Isaac : https://developer.nvidia.com/isaac-ros
-
NVIDIA AI Enterprise : https://www.nvidia.com/en-us/data-center/products/ai-enterprise/
-
Documents de presse officiels NVIDIA Computex 2025 : https://nvidianews.nvidia.com/news/computex-2025
-
Aperçu des bibliothèques NVIDIA CUDA-X : https://developer.nvidia.com/gpu-accelerated-libraries
-
Systèmes NVIDIA DGX : https://www.nvidia.com/en-us/data-center/dgx-systems/