Thỏa thuận 100 tỷ USD giữa OpenAI-NVIDIA: Hạ tầng AI 10 Gigawatt

OpenAI và NVIDIA công bố quan hệ đối tác trị giá 100 tỷ đô la để triển khai hạ tầng AI 10 gigawatt, với nền tảng Vera Rubin cung cấp tám exaflops bắt đầu từ năm 2026.

Thỏa thuận 100 tỷ USD giữa OpenAI-NVIDIA: Hạ tầng AI 10 Gigawatt

Cái bắt tay giữa Jensen Huang và Sam Altman thể hiện nhiều hơn là chỉ ngoại giao doanh nghiệp. Các công ty của họ vừa cam kết xây dựng hạ tầng AI 10 gigawatt—đủ sức mạnh tính toán để phục vụ gấp tỷ lần khả năng so với hệ thống DGX đơn lẻ mà Huang đã tự tay giao đến văn phòng OpenAI cách đây chín năm.¹ NVIDIA dự định đầu tư lên đến 100 tỷ USD khi OpenAI triển khai những hệ thống này, đánh dấu những gì Huang gọi là "dự án hạ tầng AI lớn nhất trong lịch sử."²

Sự hợp tác này xuất hiện tại thời điểm quan trọng. OpenAI phục vụ 700 triệu người dùng hoạt động hàng tuần, những người cùng nhau tạo ra nhu cầu tính toán vượt xa so với hầu hết các trung tâm siêu tính toán quốc gia.³ Trong khi đó, nền tảng Vera Rubin thế hệ tiếp theo của NVIDIA hứa hẹn tám exaflops hiệu suất AI100TB bộ nhớ tốc độ cao trong một rack duy nhất. Những thông số kỹ thuật này nghe như khoa học viễn tưởng, nhưng sẽ vận hành các workload sản xuất từ cuối năm 2026.⁴ Sự hội tụ của các đổi mới model của OpenAI với những đột phá phần cứng của NVIDIA tạo ra một chiến lược hạ tầng làm thay đổi cách chúng ta nghĩ về kinh tế AI.

Một thập kỷ hợp tác đạt đến điểm bùng nổ.

Sự hợp tác giữa NVIDIA và OpenAI đọc như một câu chuyện khởi nguồn ở Thung lũng Silicon. Năm 2016, Huang đã tự tay giao siêu máy tính DGX đầu tiên của NVIDIA đến trụ sở San Francisco của OpenAI, khoảnh khắc được ghi lại trong những bức ảnh giờ đây đã trở thành biểu tượng. Chủ tịch OpenAI Greg Brockman nhìn lại khoảnh khắc đó: "Sự hợp tác này thể hiện sức mạnh tính toán gấp tỷ lần so với máy chủ ban đầu đó."⁵

Các công ty đã cùng nhau vượt qua giới hạn thông qua nhiều bước tiến công nghệ. Phần cứng của NVIDIA đã hỗ trợ sự phát triển của dòng GPT của OpenAI, từ những model ngôn ngữ ban đầu đến sự ra mắt bùng nổ của ChatGPT. Mỗi thế hệ đều đòi hỏi sức mạnh tính toán tăng theo cấp số nhân, thúc đẩy NVIDIA tăng tốc chu kỳ phát triển chip trong khi OpenAI tinh chỉnh kiến trúc model để tối đa hóa hiệu quả phần cứng.

Thỏa thuận mới chính thức hóa điều mà những người quan sát ngành đã nghi ngờ từ lâu: những công ty này cần nhau. OpenAI cần tài nguyên tính toán khổng lồ để huấn luyện các hệ thống siêu thông minh, trong khi NVIDIA hưởng lợi từ các đổi mới model của OpenAI giúp thể hiện khả năng phần cứng của mình. Các công ty sẽ "đồng tối ưu hóa lộ trình của họ cho model và hạ tầng của OpenAI," cho thấy sự hợp tác kỹ thuật sâu sắc vượt xa quan hệ người mua-người bán đơn giản.⁶

Nền tảng Vera Rubin định nghĩa lại ranh giới tính toán.

Nền tảng NVIDIA Vera Rubin NVL144 CPX đại diện cho một bước nhảy vọt thế hệ trong thiết kế hạ tầng AI. Hệ thống tích hợp 144 Rubin CPX GPU, 144 Rubin GPU và 36 Vera CPU trong một cấu hình rack duy nhất cung cấp hiệu suất AI gấp 7.5 lần so với hệ thống NVIDIA GB300 NVL72.⁷ Những con số này làm choáng váng ngay cả những kỹ sư hạ tầng dày dạn kinh nghiệm. 1.7 petabyte mỗi giây băng thông bộ nhớ cho phép các model xử lý ngữ cảnh triệu token mà không giảm hiệu suất.

Kiến trúc Rubin CPX giới thiệu các mạch chuyên biệt được tối ưu hóa cho cơ chế attention của các model ngôn ngữ và workload xử lý video. Mỗi Rubin CPX có 128 gigabyte bộ nhớ GDDR7 trên một die duy nhất, trong khi nền tảng đạt hiệu suất 50 petaflops ở FP4—cải thiện gấp 2.5 lần so với 20 petaflops của Blackwell.⁸ NVIDIA thiết kế những hệ thống này đặc biệt cho các workload inference sẽ thống trị kinh tế AI khi các model chuyển từ nghiên cứu sang sản xuất.

Vera đại diện cho thiết kế CPU tùy chỉnh đầu tiên của NVIDIA dựa trên kiến trúc lõi Olympus. Bộ xử lý 88 lõi dựa trên Arm hứa hẹn hiệu suất gấp đôi CPU Grace được sử dụng trong các hệ thống Blackwell hiện tại.⁹ Sự tích hợp chặt chẽ giữa Vera CPU và Rubin GPU thông qua hệ thống NVIDIA MGX loại bỏ các thắt cổ chai truyền thống gây ra sự cố trong kiến trúc tính toán phân tán.

Kinh tế hạ tầng chuyển đổi các model kinh doanh AI.

Kỹ thuật tài chính đằng sau sự hợp tác này tiết lộ cách kinh tế hạ tầng AI đã phát triển. Cam kết đầu tư lên đến 100 tỷ USD một cách tiệm tiến của NVIDIA, sau khi triển khai từng gigawatt, tạo ra một model tài trợ mới điều chỉnh các động cơ khuyến khích của nhà cung cấp phần cứng với sự thành công của khách hàng.¹⁰ Sự sắp xếp này cho phép OpenAI mở rộng hạ tầng mà không cần chi tiêu vốn khổng lồ trả trước trong khi NVIDIA tham gia vào việc tạo giá trị mà phần cứng của họ hỗ trợ.

Ở quy mô lớn, nền tảng Vera Rubin hứa hẹn lợi tức đầu tư từ 30x đến 50x, có thể chuyển thành 5 tỷ USD doanh thu từ chi phí vốn 100 triệu USD.¹¹ Kinh tế này thay đổi cơ bản cách các công ty đánh giá các quyết định hạ tầng AI. Chi phí trên mỗi đơn vị trí thông minh, một chỉ số mà cả hai công ty nhấn mạnh, giảm đáng kể khi các hệ thống đạt được quy mô và mức sử dụng đủ lớn.

Cấu trúc hợp tác cho thấy cả hai công ty đều học hỏi từ các chu kỳ bùng nổ-suy thoái của khai thác tiền mã hóa. Thay vì bán phần cứng vào nhu cầu đầu cơ, NVIDIA gắn kết đầu tư của mình với việc triển khai và sử dụng thực tế. OpenAI có được khả năng mở rộng dự đoán được phù hợp với tăng trưởng người dùng và timeline phát triển model.

Tác động khu vực định hình lại địa lý trung tâm dữ liệu.

Triển khai 10 gigawatt đòi hỏi khả năng trung tâm dữ liệu chưa từng có sẽ định hình lại bản đồ hạ tầng toàn cầu. Để so sánh, 10 gigawatt bằng khoảng mức tiêu thụ điện của 10 triệu gia đình hoặc một khu vực đô thị trung tâm. Tìm kiếm các vị trí có nguồn điện sẵn có, khả năng làm mát và kết nối mạng ở quy mô này đặt ra những thách thức kỹ thuật có thể sánh với độ phức tạp tính toán.

Việc xây dựng hạ tầng tạo ra cơ hội cho các thị trường trung tâm dữ liệu khu vực, đặc biệt là trong các khu vực APAC có lưới điện mạnh mẽ và lợi thế làm mát. Các quốc gia có thặng dư năng lượng tái tạo và môi trường quy định thuận lợi sẽ định vị mình để nắm bắt một phần của việc triển khai này. Timeline của sự hợp tác—các hệ thống đầu tiên hoạt động vào cuối 2026—cho các nhà khai thác trung tâm dữ liệu và chính phủ một khoảng thời gian hẹp để chuẩn bị hạ tầng.

Cạnh tranh gia tăng, nhưng model hợp tác nổi lên như cách tiếp cận thống trị.

Liên minh OpenAI-NVIDIA báo hiệu một sự thay đổi ngành rộng hơn hướng tới các hợp tác sâu sắc giữa các nhà phát triển model và nhà cung cấp phần cứng. Sự hợp tác của Anthropic với Amazon Web Services và phát triển nội bộ TPU của Google đại diện cho các biến thể của cùng một chủ đề. Tiến bộ AI đòi hỏi sự phối hợp chưa từng có giữa đổi mới phần mềm và phần cứng.

Vị trí của Microsoft thêm độ phức tạp vào bức tranh. Là nhà đầu tư lớn nhất và đối tác cloud của OpenAI, Microsoft phải cân bằng các khoản đầu tư hạ tầng Azure với mối quan hệ trực tiếp của OpenAI với NVIDIA. Các công ty đóng khung nỗ lực của họ như bổ sung, nhưng các quyết định phân bổ tài nguyên sẽ kiểm tra câu chuyện đó khi nhu cầu tính toán bùng nổ.

Lợi thế của model hợp tác trở nên rõ ràng khi xem xét các cách tiếp cận thay thế. Xây dựng silicon tùy chỉnh đòi hỏi nhiều năm phát triển và hàng tỷ đô la đầu tư, với kết quả không chắc chắn. Dựa hoàn toàn vào các nhà cung cấp cloud đưa ra sự chồng chéo margin làm cho việc huấn luyện quy mô lớn trở nên khó khăn về mặt kinh tế. Sự hợp tác trực tiếp giữa OpenAI và NVIDIA loại bỏ chi phí trung gian trong khi tăng tốc chu kỳ đổi mới.

Timeline tiết lộ lịch trình triển khai tích cực nhưng khả thi.

Gigawatt hệ thống đầu tiên sẽ khởi tạo vào nửa cuối năm 2026, trùng với việc có sẵn NVIDIA Rubin CPX.¹² Timeline tích cực đòi hỏi thực hiện song song trên nhiều luồng công việc: chế tạo chip, xây dựng trung tâm dữ liệu, triển khai hạ tầng điện và tối ưu hóa phần mềm. Mỗi yếu tố đều có những thắt cổ chai tiềm ẩn có thể làm chậm tầm nhìn 10 gigawatt rộng hơn.

Các đối tác sản xuất của NVIDIA, chủ yếu là TSMC, phải phân bổ khả năng đáng kể cho sản xuất Rubin. Các công nghệ packaging tiên tiến cần thiết cho Rubin CPX thêm độ phức tạp vượt ra ngoài sản xuất GPU truyền thống. Đa dạng hóa chuỗi cung ứng trở nên quan trọng để tránh các điểm lỗi đơn lẻ có thể làm thất bại lịch trình triển khai.

Cửa sổ triển khai 2026-2030 phù hợp với một số chuyển đổi công nghệ. Hiện đại hóa hạ tầng điện, đặc biệt là trong việc tích hợp năng lượng tái tạo, tăng tốc để đáp ứng nhu cầu của các trung tâm dữ liệu. Công nghệ kết nối quang học đã chín muồi để đáp ứng các yêu cầu băng thông tăng. Đổi mới làm mát, từ làm mát lỏng trực tiếp đến hệ thống ngâm, trở thành tiêu chuẩn thay vì thử nghiệm.

Thách thức kỹ thuật đòi hỏi đổi mới trên toàn stack.

Triển khai 10 gigawatt hạ tầng AI nổi lên những thách thức kỹ thuật đẩy các công nghệ hiện tại đến giới hạn. Cung cấp điện ở quy mô này đòi hỏi phối hợp với các công ty tiện ích và có thể cần khả năng phát điện chuyên dụng. Một rack Vera Rubin duy nhất tiêu thụ megawatt điện tạo ra nhiệt mà làm mát khí truyền thống không thể tiêu tán hiệu quả.

Kiến trúc mạng phải phát triển để hỗ trợ song song model trên hàng nghìn GPU. 1.7 petabyte mỗi giây băng thông bộ nhớ trong một rack Vera Rubin có nghĩa là mạng bên ngoài trở thành thắt cổ chai chính cho huấn luyện phân tán. Đầu tư của NVIDIA vào công nghệ kết nối quang học và silicon switch giải quyết những ràng buộc này nhưng đòi hỏi thiết kế hệ thống cẩn thận.

Tối ưu hóa phần mềm trở nên quan trọng không kém. Các model của OpenAI phải sử dụng hiệu quả các mạch chuyên biệt trong Rubin CPX cho cơ chế attention. Cam kết đồng tối ưu hóa lộ trình của các công ty cho thấy sự hợp tác sâu sắc về công nghệ compiler, tối ưu hóa kernel và phát triển kiến trúc model. Lợi ích hiệu suất từ tối ưu hóa phần mềm thường vượt xa các cải thiện phần cứng ở quy mô này.

Tác động thị trường mở rộng ra ngoài các bên tham gia trực tiếp.

Hiệu ứng gợn sóng của sự hợp tác mở rộng khắp hệ sinh thái công nghệ. Các nhà cung cấp công nghệ làm mát thấy nhu cầu chưa từng có cho các giải pháp làm mát lỏng. Các công ty hạ tầng điện tăng tốc các dự án hiện đại hóa lưới điện. Các nhà sản xuất linh kiện quang học mở rộng sản xuất để đáp ứng yêu cầu kết nối.

Cuộc chiến nhân tài gia tăng khi cả hai công ty mở rộng đội ngũ kỹ thuật. Kỹ sư hạ tầng hiểu tối ưu hóa cluster GPU có mức lương cao. Kỹ sư phần mềm có kinh nghiệm huấn luyện phân tán trở nên vô giá. Sự hợp tác tạo ra hàng nghìn việc làm lương cao trên nhiều ngành nghề và khu vực địa lý.

Các công ty AI nhỏ hơn đối mặt với một lựa chọn khắc nghiệt: hợp tác với các nhà cung cấp cloud đánh giá phần cứng NVIDIA hoặc chấp nhận ràng buộc tính toán hạn chế tham vọng model. Kinh tế hạ tầng AI ngày càng ưa chuộng quy mô, tạo áp lực tự nhiên cho hợp nhất trên khắp ngành.

Lộ trình tương lai gợi ý nhịp điệu đổi mới bền vững

Trong khi thỏa thuận hiện tại tập trung vào triển khai Vera Rubin, cả hai công ty đều báo hiệu sự hợp tác bền vững vượt ra ngoài 2030. Nhịp điệu kiến trúc hàng năm của NVIDIA (Blackwell, Rubin và các nền tảng tương lai chưa được đặt tên) cho thấy các cải tiến hiệu suất liên tục. Sự tiến bộ của OpenAI hướng tới trí tuệ nhân tạo tổng quát đòi hỏi tài nguyên tính toán tăng theo cấp số nhân với mỗi bước nhảy vọt về khả năng.

Cam kết đồng tối ưu hóa ngụ ý phát triển công nghệ chung có thể tạo ra những đổi mới mà không công ty nào đạt được độc lập. Silicon tùy chỉnh cho kiến trúc model cụ thể, cách tiếp cận làm mát mới cho triển khai cực dense, hoặc công nghệ kết nối đột phá có thể xuất hiện từ sự hợp tác này.

Các bên tham gia khác có thể hợp tác theo cách này trong tương lai. Các nhà sản xuất chip, chuyên gia làm mát và nhà cung cấp hạ tầng điện có thể tham gia hệ sinh thái, tạo ra một stack tích hợp được tối ưu hóa cho workload AI. Lợi thế tích hợp dọc trở nên không thể vượt qua cho các đối thủ cạnh tranh cố gắng lắp ráp khả năng tương tự từ các thành phần rời rạc.

Kết luận

Sự hợp tác OpenAI-NVIDIA chuyển đổi hạ tầng AI từ một công nghệ hỗ trợ thành một yếu tố khác biệt chiến lược. Cam kết 100 tỷ USD và mục tiêu triển khai 10 gigawatt thiết lập các benchmark mới cho tham vọng tính toán. Khi những hệ thống này hoạt động từ 2026, chúng cho phép các khả năng AI hiện chỉ tồn tại trong các bài báo nghiên cứu và khoa học viễn tưởng.

Model hợp tác (tích hợp kỹ thuật sâu, động cơ kinh tế phù hợp và chia sẻ rủi ro) cung cấp một mẫu cho cách các công nghệ chuyển đổi đạt quy mô. Trong khi vẫn còn thách thức trong cung cấp điện, hiệu quả làm mát và tối ưu hóa phần mềm, cấu trúc hợp tác khuyến khích giải quyết những vấn đề này thay vì tìm cách vòng tránh.

Đối với các tổ chức lập kế hoạch đầu tư hạ tầng AI, thông điệp rõ ràng: kỷ nguyên của các bổ sung khả năng tăng dần đã kết thúc. Triển khai AI cạnh tranh đòi hỏi suy nghĩ theo gigawatt, không phải megawatt. Đối tác hạ tầng chuyên nghiệp hiểu động lực quy mô này trở nên thiết yếu để nắm bắt giá trị từ giai đoạn tiếp theo của AI. Tương lai tính toán mà OpenAI và NVIDIA hình dung sẽ đến nhanh hơn hầu hết mong đợi. Câu hỏi duy nhất là ai sẽ sẵn sàng khai thác nó.

Tài liệu tham khảo

Yêu cầu báo giá_

Hãy cho chúng tôi biết về dự án của bạn và chúng tôi sẽ phản hồi trong vòng 72 giờ.

> TRUYỀN_TẢI_HOÀN_TẤT

Đã Nhận Yêu cầu_

Cảm ơn bạn đã gửi yêu cầu. Đội ngũ của chúng tôi sẽ xem xét và phản hồi trong vòng 72 giờ.

ĐANG XẾP HÀNG XỬ LÝ