
黄仁勋和Sam Altman的握手代表的不仅仅是企业外交。他们的公司刚刚承诺建设10千兆瓦的AI基础设施——这一计算能力比9年前黄仁勋亲自交付到OpenAI办公室的单个DGX系统强大十亿倍。¹ NVIDIA计划投资高达1000亿美元,配合OpenAI部署这些系统,黄仁勋称其为"历史上最大的AI基础设施项目"。²
这一合作伙伴关系来到了关键时刻。OpenAI为7亿周活跃用户提供服务,他们共同产生的计算需求超过了大多数国家超级计算中心的需求。³ 与此同时,NVIDIA下一代Vera Rubin平台承诺提供8 exaflops的AI性能和100TB的快速内存在单个机架中。这些规格听起来像科幻小说,但将从2026年末开始为生产工作负载提供动力。⁴ OpenAI的模型创新与NVIDIA硬件突破的融合创造了一个重塑我们对AI经济学思考的基础设施布局。
十年合作伙伴关系达到转折点
NVIDIA和OpenAI之间的合作就像一个硅谷创业故事。2016年,黄仁勋亲手将NVIDIA的第一台DGX超级计算机交付到OpenAI位于旧金山的总部,这一时刻被载入了现在标志性的照片中。OpenAI总裁Greg Brockman回顾那一刻:"这一合作伙伴关系代表着比最初服务器多十亿倍的计算能力。"⁵
这两家公司在多个技术飞跃中共同突破边界。NVIDIA的硬件推动了OpenAI的GPT系列的进化,从早期语言模型到ChatGPT的爆炸性首次亮相。每一代都需要指数级增长的算力,推动NVIDIA加速其芯片开发周期,同时OpenAI优化模型架构以最大化硬件效率。
新协议正式确立了行业观察者长期以来怀疑的事实:这些公司彼此需要。OpenAI需要大量计算资源来训练超智能系统,而NVIDIA受益于OpenAI的模型创新,这些创新展示了其硬件能力。这些公司将"为OpenAI的模型和基础设施共同优化他们的路线图",表明深度技术合作超越了简单的买方-供应商动态。⁶
Vera Rubin平台重新定义计算边界
NVIDIA的Vera Rubin NVL144 CPX平台代表着AI基础设施设计的代际飞跃。该系统在单个机架配置中集成了144个Rubin CPX GPU、144个Rubin GPU和36个Vera CPU,提供比NVIDIA GB300 NVL72系统多7.5倍的AI性能。⁷ 这些数字甚至让经验丰富的基础设施工程师感到震惊。每秒1.7 petabytes的内存带宽使模型能够处理百万标记上下文而不出现性能衰减。
Rubin CPX架构引入了专为语言模型的注意力机制和视频处理工作负载优化的专用电路。每个Rubin CPX在单个芯片上配备128GB的GDDR7内存,而该平台在FP4中实现50 petaflops性能——比Blackwell的20 petaflops提高2.5倍。⁸ NVIDIA专门为推理工作负载设计了这些系统,这些工作负载将在模型从研究转向生产时主导AI经济学。
Vera代表NVIDIA基于其Olympus核心架构的首个定制CPU设计。这款88核基于Arm的处理器承诺提供当前Blackwell系统中使用的Grace CPU两倍的性能。⁹ 通过NVIDIA MGX系统的Vera CPU和Rubin GPU之间的紧密集成消除了困扰分布式计算架构的传统瓶颈。
基础设施经济学改变AI商业模式
合作伙伴关系背后的金融工程揭示了AI基础设施经济学的演变。NVIDIA承诺在部署每千兆瓦后渐进性投资高达1000亿美元,创造了一种新颖的资金模式,将硬件提供商的激励与客户成功保持一致。¹⁰ 这种安排允许OpenAI在没有大量前期资本支出的情况下扩展基础设施,同时NVIDIA参与其硬件所促成的价值创造。
在规模化下,Vera Rubin平台承诺30倍到50倍的投资回报,可能将1亿美元的资本支出转化为50亿美元的收入。¹¹ 这些经济学从根本上改变了公司评估AI基础设施决策的方式。两家公司都强调的每单位智能成本指标在系统达到足够规模和利用率时急剧下降。
合作伙伴关系的结构表明两家公司都从加密货币挖矿的繁荣-萧条周期中学到了教训。NVIDIA没有将硬件销售给投机需求,而是将其投资与实际部署和利用联系起来。OpenAI获得了与用户增长和模型开发时间表一致的可预测容量扩展。
区域影响重塑数据中心地理
10千兆瓦的部署需要前所未有的数据中心容量,这将重塑全球基础设施版图。为了解背景,10千兆瓦大约等于1000万个家庭或一个中心都市区的用电量。在这种规模下寻找具有可用电力、冷却能力和网络连接的位置,带来了与计算复杂性相当的工程挑战。
基础设施建设为区域数据中心市场创造了机会,特别是在拥有强大电网和冷却优势的APAC地区。拥有可再生能源盈余和有利监管环境的国家将自己定位为获取这一部署的一部分。合作伙伴关系的时间表——首批系统在2026年末投入运营——给数据中心运营商和政府一个狭窄的窗口来准备基础设施。
竞争加剧,但合作伙伴关系模式成为主导方法
OpenAI-NVIDIA联盟标志着行业向模型开发者和硬件提供商之间深度合作伙伴关系的更广泛转变。Anthropic与Amazon Web Services的合作以及Google内部开发TPU代表了同一主题的变化。AI进步需要软件和硬件创新之间前所未有的协调。
Microsoft的立场为格局增加了复杂性。作为OpenAI的最大投资者和云合作伙伴,Microsoft必须平衡其Azure基础设施投资与OpenAI与NVIDIA的直接关系。这些公司将他们的努力框定为互补的,但随着计算需求爆炸式增长,资源配置决策将考验这一说法。
当检查替代方法时,合作伙伴关系模式的优势变得清晰。构建定制芯片需要数年开发和数十亿美元投资,且结果不确定。完全依赖云提供商会引入边际堆叠,使大规模训练在经济上具有挑战性。OpenAI和NVIDIA之间的直接合作消除了中介成本,同时加速了创新周期。
时间表揭示了激进但可实现的部署计划
首批千兆瓦系统将在2026年下半年启动,与NVIDIA Rubin CPX的可用性同步。¹² 激进的时间表需要在多个工作流程中并行执行:芯片制造、数据中心建设、电力基础设施部署和软件优化。每个要素都存在可能延迟更广泛10千兆瓦愿景的潜在瓶颈。
NVIDIA的制造合作伙伴,主要是TSMC,必须为Rubin生产分配大量产能。Rubin CPX所需的先进封装技术在传统GPU制造基础上增加了复杂性。供应链多样化对于避免可能破坏部署计划的单点故障至关重要。
2026-2030年的部署窗口与几个技术转型一致。电力基础设施现代化,特别是在可再生能源集成方面,加速以满足数据中心的需求。光互连技术已经成熟,能够满足日益增长的带宽要求。冷却创新,从直接液体冷却到浸没系统,成为标准而非实验性的。
工程挑战需要整个技术栈的创新
部署10千兆瓦的AI基础设施暴露了将当前技术推向极限的工程挑战。这种规模的电力输送需要与公用事业公司协调,可能需要专用发电能力。单个消耗兆瓦功率的Vera Rubin机架产生的热量是传统风冷无法有效散发的。
网络架构必须发展以支持数千个GPU之间的模型并行处理。Vera Rubin机架内每秒1.7 petabytes的内存带宽意味着外部网络成为分布式训练的主要瓶颈。NVIDIA在光互连技术和交换芯片方面的投资解决了这些约束,但需要仔细的系统设计。
软件优化变得同样重要。OpenAI的模型必须有效利用Rubin CPX中用于注意力机制的专用电路。公司共同优化路线图的承诺表明在编译器技术、内核优化和模型架构演进方面的深度合作。在这种规模下,软件优化带来的性能提升往往超过硬件改进。
市场影响扩展到直接参与者之外
合作伙伴关系的连锁反应遍及整个技术生态系统。冷却技术提供商看到对液体冷却解决方案前所未有的需求。电力基础设施公司加速电网现代化项目。光学组件制造商扩大生产以满足互连要求。
人才争夺战随着两家公司扩大工程团队而加剧。了解GPU集群优化的基础设施工程师获得高额报酬。具有分布式训练经验的软件工程师变得无价。该合作伙伴关系在多个学科和地区创造了数千个高薪工作岗位。
较小的AI公司面临严峻选择:与对NVIDIA硬件加价的云提供商合作,或接受限制模型雄心的计算约束。AI基础设施的经济学越来越有利于规模,为整个行业的整合创造了自然压力。
未来路线图暗示持续创新节奏
虽然当前协议专注于Vera Rubin部署,但两家公司都表示在2030年后会持续合作。NVIDIA的年度架构节奏(Blackwell、Rubin和未命名的未来平台)表明持续的性能改进。OpenAI向通用人工智能的发展需要随着能力每次飞跃而呈指数增长的计算资源。
共同优化承诺暗示共享技术开发,这可能产生任何一家公司都无法独立实现的创新。针对特定模型架构的定制芯片、超密集部署的新颖冷却方法,或突破性互连技术可能从这种合作中出现。
未来其他参与者可能以这种方式合作。芯片制造商、冷却专家和电力基础设施提供商可能加入生态系统,创建针对AI工作负载优化的集成堆栈。对于试图从离散组件组装类似能力的竞争对手来说,垂直集成优势变得不可逾越。
结论
OpenAI-NVIDIA合作伙伴关系将AI基础设施从支撑技术转变为战略差异化因素。1000亿美元的承诺和10千兆瓦的部署目标为计算雄心建立了新的基准。随着这些系统从2026年开始上线,它们将实现今天只存在于研究论文和科幻小说中的AI能力。
合作模式(深度技术集成、一致的经济激励和共同风险)为变革性技术如何达到规模提供了模板。虽然在电力输送、冷却效率和软件优化方面仍存在挑战,但合作伙伴关系的结构激励解决这些问题而不是绕过它们。
对于规划AI基础设施投资的组织来说,信息是明确的:增量容量添加的时代已经结束。竞争性AI部署需要以千兆瓦而不是兆瓦来思考。了解这些规模动态的专业基础设施合作伙伴对于从AI的下一阶段获取价值变得至关重要。OpenAI和NVIDIA设想的计算未来将比大多数人预期的更快到达。唯一的问题是谁准备好利用它。
参考文献
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
SemiAnalysis. "NVIDIA GTC 2025 – Built For Reasoning, Vera Rubin, Kyber, CPO, Dynamo Inference, Jensen Math, Feynman." March 19, 2025. https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/.
-
Wccftech. "NVIDIA Rubin & Rubin Ultra With Next-Gen Vera CPUs Start Arriving Next Year: Up To 1 TB HBM4 Memory, 4-Reticle Sized GPUs, 100PF FP4 & 88 CPU Cores." March 18, 2025. https://wccftech.com/nvidia-rubin-rubin-ultra-next-gen-vera-cpus-next-year-1-tb-hbm4-memory-4-reticle-sized-gpus-100pf-fp4-88-cpu-cores/.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.