OpenAI và NVIDIA thiết lập liên minh cơ sở hạ tầng 100 tỷ đô la để xây dựng tương lai điện toán AI
Cập nhật ngày 11 tháng 12 năm 2025
Cái bắt tay giữa Jensen Huang và Sam Altman không chỉ đơn thuần là ngoại giao doanh nghiệp. Hai công ty đã công bố thư bày tỏ ý định xây dựng 10 gigawatt cơ sở hạ tầng AI—đủ năng lực tính toán để phục vụ khả năng lớn hơn một tỷ lần so với hệ thống DGX đơn lẻ mà Huang đích thân giao đến văn phòng OpenAI chín năm trước.¹ NVIDIA dự định đầu tư tới 100 tỷ đô la khi OpenAI triển khai các hệ thống này, đánh dấu điều mà Huang gọi là "dự án cơ sở hạ tầng AI lớn nhất trong lịch sử."²
Cập nhật tháng 12 năm 2025: Tính đến đầu tháng 12, quan hệ đối tác mang tính bước ngoặt này vẫn đang ở giai đoạn thư bày tỏ ý định. CFO của NVIDIA Colette Kress xác nhận tại Hội nghị Công nghệ Toàn cầu UBS rằng "chúng tôi vẫn chưa hoàn tất thỏa thuận chính thức."¹³ Việc mua GPU hiện tại của OpenAI vẫn tiếp tục thông qua các đối tác đám mây Microsoft và Oracle trong khi hai công ty đàm phán các điều khoản cuối cùng. Kress nhấn mạnh mối quan hệ vẫn là "một quan hệ đối tác rất vững mạnh" với việc OpenAI coi NVIDIA là "đối tác ưu tiên" cho năng lực tính toán—mặc dù thỏa thuận trực tiếp được phác thảo vào tháng 9 vẫn chưa được chính thức hóa.¹⁴
Quan hệ đối tác này đến vào một thời điểm quan trọng. OpenAI phục vụ 700 triệu người dùng hoạt động hàng tuần với nhu cầu tính toán tổng hợp vượt xa hầu hết các trung tâm siêu máy tính quốc gia.³ Trong khi đó, nền tảng Vera Rubin thế hệ tiếp theo của NVIDIA hứa hẹn 8 exaflop hiệu năng AI và 100TB bộ nhớ tốc độ cao trong một rack đơn—những thông số kỹ thuật nghe như khoa học viễn tưởng nhưng sẽ vận hành các khối lượng công việc sản xuất bắt đầu từ cuối năm 2026.⁴ Sự hội tụ giữa các đổi mới mô hình của OpenAI với những đột phá phần cứng của NVIDIA tạo ra một bước ngoặt cơ sở hạ tầng định hình lại cách chúng ta nghĩ về kinh tế học AI.
Một thập kỷ hợp tác đạt đến điểm bùng phát
Sự hợp tác giữa NVIDIA và OpenAI đọc như một câu chuyện khởi nguồn Silicon Valley. Vào năm 2016, Huang đích thân giao siêu máy tính DGX đầu tiên của NVIDIA đến trụ sở San Francisco của OpenAI, một khoảnh khắc được ghi lại trong những bức ảnh giờ đã trở thành biểu tượng. Chủ tịch OpenAI Greg Brockman hồi tưởng về khoảnh khắc đó: "Quan hệ đối tác này đại diện cho năng lực tính toán lớn hơn một tỷ lần so với máy chủ ban đầu đó."⁵
Hai công ty đã cùng nhau vượt qua nhiều bước nhảy công nghệ. Phần cứng của NVIDIA đã hỗ trợ sự phát triển của dòng GPT của OpenAI, từ các mô hình ngôn ngữ đầu tiên đến sự ra mắt bùng nổ của ChatGPT. Mỗi thế hệ đòi hỏi năng lực tính toán tăng theo cấp số nhân, thúc đẩy NVIDIA tăng tốc các chu kỳ phát triển chip trong khi OpenAI tinh chỉnh kiến trúc mô hình để tối đa hóa hiệu quả phần cứng.
Thỏa thuận mới chính thức hóa điều mà những người theo dõi ngành đã nghi ngờ từ lâu—hai công ty này cần nhau. OpenAI cần nguồn lực tính toán khổng lồ để huấn luyện các hệ thống siêu trí tuệ, trong khi NVIDIA hưởng lợi từ các đổi mới mô hình của OpenAI vốn thể hiện khả năng phần cứng của họ. Hai công ty sẽ "đồng tối ưu hóa lộ trình cho mô hình và cơ sở hạ tầng của OpenAI," gợi ý sự hợp tác kỹ thuật sâu rộng vượt ra ngoài động lực người mua-nhà cung cấp đơn giản.⁶
Nền tảng Vera Rubin định nghĩa lại ranh giới tính toán
Nền tảng NVIDIA Vera Rubin NVL144 CPX đại diện cho một bước nhảy thế hệ trong thiết kế cơ sở hạ tầng AI. Hệ thống tích hợp 144 GPU Rubin CPX, 144 GPU Rubin, và 36 CPU Vera trong cấu hình rack đơn mang lại hiệu năng AI cao hơn 7,5 lần so với hệ thống NVIDIA GB300 NVL72.⁷ Những con số này làm choáng ngợp ngay cả những kỹ sư cơ sở hạ tầng dày dạn kinh nghiệm—1,7 petabyte mỗi giây băng thông bộ nhớ cho phép các mô hình xử lý ngữ cảnh triệu token mà không suy giảm hiệu năng.
Kiến trúc Rubin CPX giới thiệu các mạch chuyên biệt được tối ưu hóa cho các cơ chế attention của mô hình ngôn ngữ và khối lượng công việc xử lý video. Mỗi Rubin CPX có 128 gigabyte bộ nhớ GDDR7 trên một die đơn, trong khi nền tảng đạt hiệu năng 50 petaflop ở FP4—cải thiện 2,5 lần so với 20 petaflop của Blackwell.⁸ NVIDIA thiết kế các hệ thống này đặc biệt cho khối lượng công việc suy luận sẽ thống trị kinh tế học AI khi các mô hình chuyển từ nghiên cứu sang sản xuất.
Vera đại diện cho thiết kế CPU tùy chỉnh đầu tiên của NVIDIA dựa trên kiến trúc lõi Olympus. Bộ xử lý dựa trên Arm 88 lõi hứa hẹn hiệu năng gấp đôi CPU Grace được sử dụng trong các hệ thống Blackwell hiện tại.⁹ Sự tích hợp chặt chẽ giữa CPU Vera và GPU Rubin thông qua hệ thống NVIDIA MGX loại bỏ các nút thắt cổ chai truyền thống vốn gây khó khăn cho các kiến trúc tính toán phân tán.
Kinh tế học cơ sở hạ tầng chuyển đổi mô hình kinh doanh AI
Kỹ thuật tài chính đằng sau quan hệ đối tác được đề xuất cho thấy kinh tế học cơ sở hạ tầng AI đã phát triển như thế nào. Cam kết dự định của NVIDIA đầu tư tới 100 tỷ đô la theo từng giai đoạn khi mỗi gigawatt được triển khai sẽ tạo ra một mô hình tài trợ mới lạ liên kết các khuyến khích của nhà cung cấp phần cứng với thành công của khách hàng.¹⁰ Nếu được hoàn tất, thỏa thuận này sẽ cho phép OpenAI mở rộng cơ sở hạ tầng mà không cần chi tiêu vốn ban đầu khổng lồ trong khi NVIDIA tham gia vào việc tạo giá trị mà phần cứng của họ mang lại.
Ở quy mô lớn, nền tảng Vera Rubin hứa hẹn lợi tức đầu tư từ 30 đến 50 lần, có khả năng chuyển thành 5 tỷ đô la doanh thu từ khoản đầu tư CAPEX 100 triệu đô la.¹¹ Những con số kinh tế này thay đổi căn bản cách các công ty đánh giá quyết định cơ sở hạ tầng AI. Chi phí trên mỗi đơn vị trí tuệ—một chỉ số mà cả hai công ty đều nhấn mạnh—giảm đáng kể khi các hệ thống đạt được quy mô và mức sử dụng đủ lớn.
Cấu trúc của quan hệ đối tác gợi ý rằng cả hai công ty đã học được từ các chu kỳ bùng nổ-sụp đổ của khai thác tiền điện tử. Thay vì bán phần cứng vào nhu cầu đầu cơ, NVIDIA gắn khoản đầu tư của mình với triển khai và sử dụng thực tế. OpenAI có được khả năng mở rộng công suất có thể dự đoán được phù hợp với tăng trưởng người dùng và tiến độ phát triển mô hình.
Tác động khu vực định hình lại địa lý trung tâm dữ liệu
Việc triển khai 10 gigawatt đòi hỏi công suất trung tâm dữ liệu chưa từng có sẽ định hình lại bản đồ cơ sở hạ tầng toàn cầu. Để so sánh, 10 gigawatt tương đương với mức tiêu thụ điện của khoảng 10 triệu hộ gia đình hoặc một khu vực đô thị lớn. Tìm kiếm các địa điểm có nguồn điện khả dụng, công suất làm mát và kết nối mạng ở quy mô này đặt ra những thách thức kỹ thuật sánh ngang với các thách thức tính toán.
Việc xây dựng cơ sở hạ tầng tạo ra cơ hội cho các thị trường trung tâm dữ liệu khu vực, đặc biệt ở các khu vực APAC với lưới điện vững mạnh và lợi thế làm mát. Các quốc gia có thặng dư năng lượng tái tạo và môi trường pháp lý thuận lợi tự định vị để nắm bắt các phần của việc triển khai này. Tiến độ của quan hệ đối tác—các hệ thống đầu tiên hoạt động vào cuối năm 2026—cho các nhà điều hành trung tâm dữ liệu và chính phủ một khoảng thời gian hẹp để chuẩn bị cơ sở hạ tầng.
Chuyên môn triển khai chuyên nghiệp trở nên quan trọng ở quy mô này. Sự khác biệt giữa thông số kỹ thuật lý thuyết và hiệu năng vận hành thường phụ thuộc vào hiệu quả làm mát, phân phối điện và tối ưu hóa kết nối. Các công ty như Introl, với kinh nghiệm triển khai các cụm GPU khổng lồ trên nhiều khu vực địa lý đa dạng, hiểu những sắc thái quyết định liệu các hệ thống này có mang lại hiệu năng như hứa hẹn hay không.
Cạnh tranh tăng tốc nhưng mô hình đối tác nổi lên chiếm ưu thế
Liên minh OpenAI-NVIDIA báo hiệu một sự chuyển đổi rộng hơn trong ngành hướng tới các quan hệ đối tác sâu giữa các nhà phát triển mô hình và nhà cung cấp phần cứng. Sự hợp tác của Anthropic với Amazon Web Services và sự phát triển nội bộ TPU của Google đại diện cho các biến thể trên cùng một chủ đề—tiến bộ AI đòi hỏi sự phối hợp chưa từng có giữa đổi mới phần mềm và phần cứng.
Vị trí của Microsoft thêm phức tạp vào bức tranh. Là nhà đầu tư lớn nhất và đối tác đám mây của OpenAI, Microsoft phải cân bằng các khoản đầu tư cơ sở hạ tầng Azure với mối quan hệ trực tiếp của OpenAI với NVIDIA. Các công ty đóng khung nỗ lực của họ là bổ sung, nhưng các quyết định phân bổ nguồn lực sẽ thử thách câu chuyện đó khi nhu cầu tính toán bùng nổ.
Lợi thế của mô hình đối tác trở nên rõ ràng khi xem xét các cách tiếp cận thay thế. Xây dựng silicon tùy chỉnh đòi hỏi nhiều năm phát triển và hàng tỷ đô la đầu tư với kết quả không chắc chắn. Chỉ dựa vào các nhà cung cấp đám mây giới thiệu việc chồng chất biên lợi nhuận khiến việc huấn luyện quy mô lớn trở nên khó khăn về mặt kinh tế. Sự hợp tác trực tiếp giữa OpenAI và NVIDIA loại bỏ chi phí trung gian đồng thời tăng tốc các chu kỳ đổi mới.
Tiến độ cho thấy lịch trình triển khai tham vọng nhưng khả thi
Gigawatt hệ thống đầu tiên đi vào hoạt động trong nửa cuối năm 2026, trùng với thời điểm NVIDIA Rubin CPX có sẵn.¹² Tiến độ tham vọng này đòi hỏi thực hiện song song trên nhiều luồng công việc—chế tạo chip, xây dựng trung tâm dữ liệu, triển khai cơ sở hạ tầng điện và tối ưu hóa phần mềm. Mỗi yếu tố đều có tiềm năng trở thành nút thắt cổ chai có thể trì hoãn tầm nhìn 10 gigawatt rộng hơn.
Các đối tác sản xuất của NVIDIA, chủ yếu là TSMC, phải phân bổ công suất đáng kể cho sản xuất Rubin. Các công nghệ đóng gói tiên tiến cần thiết cho Rubin CPX thêm phức tạp vượt ra ngoài sản xuất GPU truyền thống. Đa dạng hóa chuỗi cung ứng trở nên quan trọng để tránh các điểm thất bại đơn lẻ có thể làm trật bánh tiến độ triển khai.
Cửa sổ triển khai 2026-2030 phù hợp với một số quá trình chuyển đổi công nghệ. Hiện đại hóa cơ sở hạ tầng điện, đặc biệt trong tích hợp năng lượng tái tạo, tăng tốc để đáp ứng nhu cầu trung tâm dữ liệu. Các công nghệ kết nối quang học trưởng thành để xử lý các yêu cầu băng thông tăng lên. Các đổi mới làm mát, từ làm mát chất lỏng trực tiếp đến hệ thống ngâm, trở thành tiêu chuẩn thay vì thử nghiệm.
Thách thức kỹ thuật đòi hỏi đổi mới xuyên suốt ngăn xếp
Việc triển khai 10 gigawatt cơ sở hạ tầng AI bộc lộ các thách thức kỹ thuật đẩy các công nghệ hiện tại đến giới hạn của chúng. Cung cấp điện ở quy mô này đòi hỏi phối hợp với các công ty tiện ích và có khả năng là công suất phát điện chuyên dụng. Một rack Vera Rubin đơn tiêu thụ megawatt điện tạo ra nhiệt mà làm mát bằng không khí truyền thống không thể tản hiệu quả.
Kiến trúc mạng phải phát triển để hỗ trợ song song hóa mô hình trên hàng nghìn GPU. 1,7 petabyte mỗi giây băng thông bộ nhớ trong một rack Vera Rubin có nghĩa là mạng bên ngoài trở thành nút thắt cổ chai chính cho huấn luyện phân tán. Khoản đầu tư của NVIDIA vào các công nghệ kết nối quang học và silicon chuyển mạch giải quyết các ràng buộc này nhưng đòi hỏi thiết kế hệ thống cẩn thận.
Tối ưu hóa phần mềm trở nên quan trọng không kém. Các mô hình của OpenAI phải sử dụng hiệu quả các mạch chuyên biệt trong Rubin CPX cho các cơ chế attention. Cam kết của các công ty trong việc đồng tối ưu hóa lộ trình của họ gợi ý sự hợp tác sâu về công nghệ trình biên dịch, tối ưu hóa kernel và phát triển kiến trúc mô hình. Các cải tiến hiệu năng từ tối ưu hóa phần mềm thường vượt quá các cải tiến phần cứng ở quy mô này.
Tác động thị trường mở rộng ra ngoài các bên tham gia trực tiếp
Các hiệu ứng lan tỏa của quan hệ đối tác mở rộng khắp hệ sinh thái công nghệ. Các nhà cung cấp công nghệ làm mát thấy nhu cầu chưa từng có cho các giải pháp làm mát chất lỏng. Các công ty cơ sở hạ tầng điện tăng tốc các dự án hiện đại hóa lưới điện. Các nhà sản xuất linh kiện quang học mở rộng sản xuất để đáp ứng yêu cầu kết nối.
Cuộc chiến nhân tài leo thang khi cả hai công ty mở rộng đội ngũ kỹ sư. Các kỹ sư cơ sở hạ tầng hiểu tối ưu hóa cụm GPU đòi hỏi mức đãi ngộ cao. Các kỹ sư phần mềm có kinh nghiệm trong huấn luyện phân tán trở nên vô giá. Quan hệ đối tác tạo ra hàng nghìn việc làm lương cao trên nhiều lĩnh vực và khu vực địa lý.
Các công ty AI nhỏ hơn đối mặt với một lựa chọn rõ ràng—hợp tác với các nhà cung cấp đám mây đánh giá cao phần cứng NVIDIA hoặc chấp nhận các ràng buộc tính toán giới hạn tham vọng mô hình. Kinh tế học của cơ sở hạ tầng AI ngày càng ưu tiên quy mô, tạo ra áp lực hợp nhất tự nhiên trên toàn ngành.
Lộ trình tương lai gợi ý nhịp đổi mới bền vững
Trong khi thỏa thuận hiện tại tập trung vào triển khai Vera Rubin, cả hai công ty đều báo hiệu sự hợp tác bền vững sau năm 2030. Năm
[Nội dung bị cắt ngắn cho bản dịch]