Kế Hoạch Trung Tâm Dữ Liệu 50 Tỷ USD của Anthropic: Phòng Thí Nghiệm AI Trở Thành Nhà Xây Dựng Hạ Tầng
Ngày 10 tháng 12, 2025 Tác giả: Blake Crosley
Anthropic đã ký kết thỏa thuận hợp tác trung tâm dữ liệu trị giá 50 tỷ USD với nhà cung cấp neocloud Fluidstack có trụ sở tại Anh vào ngày 12 tháng 11 năm 2025, cam kết xây dựng các cơ sở tại Texas và New York sẽ đi vào hoạt động trong suốt năm 2026.[^1] Dự án tạo ra khoảng 800 việc làm cố định và 2.400 việc làm xây dựng, đánh dấu nỗ lực lớn đầu tiên của Anthropic trong việc xây dựng hạ tầng tùy chỉnh thay vì phụ thuộc vào các nhà cung cấp đám mây.[^2]
Thông báo này đại diện cho một phần trong chiến lược hạ tầng đa đám mây chưa từng có. Anthropic đồng thời duy trì quyền truy cập vào AWS Project Rainier (500.000 chip Trainium2 mở rộng lên 1 triệu), Google Cloud TPU (lên đến 1 triệu chip), và cam kết Microsoft Azure trị giá 30 tỷ USD mới với 15 tỷ USD đầu tư từ NVIDIA và Microsoft.[^3][^4][^5]
Danh Mục Hạ Tầng của Anthropic:
| Đối tác | Cam kết | Công suất | Trạng thái |
|---|---|---|---|
| Fluidstack | 50 tỷ USD | Trung tâm dữ liệu Texas + New York | Hoạt động 2026 |
| Microsoft Azure | 30 tỷ USD + 15 tỷ USD đầu tư | Grace Blackwell, Vera Rubin | Đang hoạt động |
| AWS Project Rainier | Truy cập hạ tầng | 500K→1 triệu chip Trainium2 | Đang hoạt động |
| Google Cloud | Nhiều năm | Lên đến 1 triệu chip TPU, 1+ GW | Đang hoạt động |
| Tổng cộng | 95+ tỷ USD cam kết | Đa gigawatt | 2025-2026 |
Cách tiếp cận đa đám mây này tương phản rõ rệt với dự án Stargate của OpenAI—một liên doanh trị giá 500 tỷ USD với SoftBank, Oracle và MGX nhắm mục tiêu 10 gigawatt vào năm 2029.[^6] Chiến lược phân tán của Anthropic đảm bảo quyền truy cập điện toán trên nhiều kiến trúc (NVIDIA, Trainium, TPU) và nhà cung cấp.
Lý do chiến lược
Đầu tư hạ tầng của Anthropic giải quyết các ràng buộc quan trọng mà các phòng thí nghiệm AI tiên phong đang đối mặt khi các mô hình mở rộng hướng tới trí tuệ nhân tạo tổng quát.
Chiến lược đa kiến trúc
Việc huấn luyện các mô hình tiên phong hiện nay đòi hỏi các cụm máy chủ với hàng chục nghìn bộ tăng tốc hoạt động đồng bộ.[^7] Thay vì đặt cược vào một kiến trúc duy nhất, Anthropic đã đảm bảo quyền truy cập trên ba nền tảng cạnh tranh:
So Sánh Bộ Tăng Tốc:
| Kiến trúc | Nhà cung cấp | Thế mạnh | Quyền truy cập của Anthropic |
|---|---|---|---|
| NVIDIA Grace Blackwell | Microsoft Azure | Hiệu suất huấn luyện đỉnh cao, hệ sinh thái | Cam kết 30 tỷ USD |
| AWS Trainium2 | Amazon | Hiệu quả chi phí, chip tùy chỉnh | 500K→1 triệu chip |
| Google TPU v5 | Google Cloud | Hiệu quả suy luận, tỷ lệ giá-hiệu suất | Lên đến 1 triệu chip |
Sự đa dạng hóa này đảm bảo không một nhà cung cấp nào có thể hạn chế năng lực huấn luyện của Anthropic. Nếu phân bổ NVIDIA thắt chặt, Anthropic chuyển khối lượng công việc sang Trainium hoặc TPU. Nếu AWS ưu tiên khách hàng khác, Azure cung cấp công suất dự phòng.
Yêu cầu quy mô cho Claude
Claude Opus 4.5, ra mắt tháng 11 năm 2025, đại diện cho mô hình có khả năng cao nhất của Anthropic.[^8] Việc huấn luyện các thế hệ tiếp theo đòi hỏi phân bổ điện toán còn lớn hơn. Project Rainier chứng minh quy mô: cụm máy chủ trải dài ba bang (Pennsylvania, Indiana, Mississippi) với hầu hết chip được sử dụng cho suy luận và các lần huấn luyện được thực hiện vào buổi tối khi nhu cầu suy luận giảm.[^9]
Anthropic sẽ có quyền truy cập vào hơn một gigawatt công suất sẽ đi vào hoạt động năm 2026 chỉ riêng thông qua Google Cloud.[^10] Kết hợp với các cơ sở Fluidstack và hạ tầng AWS, tổng công suất tiệm cận quy mô đa gigawatt—điện toán trước đây chỉ có sẵn cho các nhà cung cấp đám mây lớn nhất.
Chênh lệch kinh tế
Giá thuê GPU đám mây đã giảm từ 8 USD/giờ (H100, đầu 2024) xuống 2,85-3,50 USD/giờ (cuối 2025), nhưng huấn luyện liên tục vẫn tích lũy hàng triệu đô la chi phí.[^11] Hạ tầng sở hữu chuyển đổi chi phí vận hành biến đổi thành đầu tư vốn với các đặc tính kinh tế khác nhau.
Kinh Tế Huấn Luyện Ở Quy Mô Lớn:
| Chỉ số | Thuê đám mây | Hạ tầng sở hữu |
|---|---|---|
| 10.000 GPU-tháng | 20-25 triệu USD | 15-18 triệu USD (khấu hao) |
| Linh hoạt công suất | Tức thì | Thời gian chờ 12-24 tháng |
| Lựa chọn kiến trúc | Phụ thuộc nhà cung cấp | Tự quyết định |
| Rủi ro tài sản không sử dụng | Không có | Đáng kể |
Quan hệ đối tác Fluidstack cung cấp giải pháp trung gian: cơ sở được xây dựng tùy chỉnh cho khối lượng công việc của Anthropic mà không có rủi ro sở hữu hoàn toàn.
Cấu trúc quan hệ đối tác
Quan hệ đối tác Fluidstack đại diện cho một đặt cược có tính toán vào sự nhanh nhẹn của neocloud thay vì quy mô của nhà cung cấp đám mây lớn.
Tại sao chọn Fluidstack
Fluidstack, thành lập năm 2017, đã chứng minh khả năng của mình vào đầu năm 2025 khi được chọn làm đối tác chính cho dự án AI 1 gigawatt được chính phủ Pháp hỗ trợ với chi tiêu hơn 11 tỷ USD.[^12] CEO Anthropic Dario Amodei đã chọn Fluidstack vì "khả năng di chuyển với sự nhanh nhẹn đặc biệt, cho phép cung cấp nhanh chóng gigawatt điện năng."[^13]
Mô hình neocloud của Fluidstack khác với các phương pháp của nhà cung cấp đám mây lớn: - Tốc độ: Vài tháng thay vì nhiều năm để giao cơ sở - Tùy chỉnh: Hạ tầng được tối ưu hóa cho các mẫu khối lượng công việc cụ thể của Anthropic - Kinh tế: Không có biên lợi nhuận của nhà cung cấp lớn, chuyển chi phí trực tiếp - Linh hoạt: Điều khoản hợp đồng được điều chỉnh theo yêu cầu của phòng thí nghiệm AI
Chiến lược địa lý
Các địa điểm Texas và New York phục vụ các mục đích chiến lược riêng biệt:
Cơ sở Texas: - Chi phí điện thấp hơn (0,04-0,06 USD/kWh so với 0,12+ USD ở nơi khác) - Môi trường pháp lý thuận lợi cho phát triển trung tâm dữ liệu - Gần với hạ tầng Stargate hiện có tại Abilene - Trọng tâm chính: Các lần huấn luyện quy mô lớn
Cơ sở New York: - Kết nối cao cấp với khách hàng ngành tài chính - Truy cập độ trễ thấp đến các trung tâm dân cư Đông Bắc - Gần khách hàng doanh nghiệp cho dịch vụ Claude API - Trọng tâm chính: Phục vụ suy luận, triển khai doanh nghiệp
Đầu tư lãnh đạo
Anthropic đã thuê Rahul Patil làm CTO vào tháng 10 năm 2025, đặc biệt để giám sát điện toán, hạ tầng, suy luận và hoạt động kỹ thuật.[^14] Nền tảng của Patil với tư cách CTO của Stripe báo hiệu cam kết của Anthropic đối với hạ tầng như năng lực cốt lõi thay vì chức năng thuê ngoài.
So sánh Stargate: Hai mô hình cho hạ tầng AI
Sự tương phản giữa chiến lược phân tán của Anthropic và cách tiếp cận tập trung Stargate của OpenAI cho thấy sự khác biệt triết học cơ bản.
So Sánh Chiến Lược Hạ Tầng:
| Khía cạnh | Anthropic | OpenAI Stargate |
|---|---|---|
| Tổng cam kết | 95+ tỷ USD (phân tán) | 500 tỷ USD (tập trung) |
| Thời gian | 2025-2026 | Đến 2029 |
| Kiến trúc | Đa nhà cung cấp (NVIDIA, Trainium, TPU) | NVIDIA là chính |
| Quyền sở hữu | Mô hình đối tác | Liên doanh (40% mỗi bên SoftBank, OpenAI) |
| Phân bố địa lý | Nhiều cơ sở, 3+ vùng đám mây | 6+ địa điểm, mục tiêu 10 GW |
| Hồ sơ rủi ro | Thấp hơn (đa dạng hóa) | Cao hơn (tập trung) |
Stargate của OpenAI đã đảm bảo gần 7 gigawatt công suất dự kiến trên sáu địa điểm với hơn 400 tỷ USD đầu tư cam kết—đưa họ vào lộ trình đạt mục tiêu đầy đủ 10 gigawatt, 500 tỷ USD trước kế hoạch.[^15] Tuy nhiên, các báo cáo cho thấy dự án đã gặp phải sự chậm trễ giữa các thách thức thực thi.[^16]
Cách tiếp cận của Anthropic đánh đổi quy mô để lấy khả năng phục hồi. Nếu Stargate gặp phải sự chậm trễ xây dựng, thách thức tài chính, hoặc thay đổi công nghệ, OpenAI phải đối mặt với rủi ro tập trung. Các cam kết phân tán của Anthropic cung cấp công suất dự phòng trên nhiều nhà cung cấp.
Tác động ngành
Chiến lược đa nhà cung cấp của Anthropic tạo ra hiệu ứng lan tỏa trên toàn hệ sinh thái hạ tầng AI.
Thay đổi động lực cạnh tranh
Bối cảnh phòng thí nghiệm AI tiên phong hiện nay có hai triết lý hạ tầng riêng biệt: - Tập trung: OpenAI (Stargate), Meta (xây dựng nội bộ 600 tỷ USD) - Phân tán: Anthropic (đa đám mây + sở hữu)
Các phòng thí nghiệm nhỏ hơn phải đối mặt với áp lực lựa chọn: cạnh tranh giành công suất nhà cung cấp lớn với các đối thủ có tài chính tốt hơn, hoặc chấp nhận bất lợi về hạ tầng. Yêu cầu vốn cho hạ tầng cạnh tranh đã leo thang vượt quá khả năng gây quỹ độc lập.
Định vị nhà cung cấp đám mây
Các nhà cung cấp đám mây lớn cạnh tranh giành khách hàng neo chính là phòng thí nghiệm AI trong khi xây dựng công suất có thể vượt quá nhu cầu nếu các phòng thí nghiệm xây dựng hạ tầng sở hữu. Động lực này tạo ra sự không chắc chắn trong lập kế hoạch công suất:
- AWS: Duy trì Anthropic thông qua Project Rainier nhưng mất độc quyền
- Google Cloud: Đảm bảo cam kết TPU nhiều năm, xác nhận chiến lược chip tùy chỉnh
- Microsoft Azure: Có được sự hiện diện của Anthropic thông qua cam kết 30+ tỷ USD, đa dạng hóa ngoài OpenAI
- Oracle: Bị loại khỏi Anthropic, tăng cường quan hệ đối tác Stargate
Xác nhận Neocloud
Việc Fluidstack được chọn thay vì các nhà cung cấp đám mây lớn đã thiết lập xác nhận mô hình neocloud cho hạ tầng AI tiên phong. Các neocloud khác (CoreWeave, Lambda, Together) có được uy tín cho các quan hệ đối tác tương tự. Ngành neocloud chuyển đổi từ nguồn công suất thay thế thành đối tác hạ tầng chiến lược.
Thách thức thực thi
Việc chuyển đổi 95 tỷ USD cam kết thành hạ tầng vận hành liên quan đến rủi ro thực thi đáng kể trên nhiều khía cạnh.
Hình thành vốn
Tài trợ được công bố của Anthropic (~8 tỷ USD đến 2024) thiếu xa so với 95+ tỷ USD cam kết. Khoảng cách vốn đòi hỏi: - Tiếp tục đầu tư mạo hiểm (Google được cho là đã đóng góp thêm 1 tỷ USD) - Tăng trưởng doanh thu từ Claude API và sản phẩm doanh nghiệp - Đóng góp đối tác chiến lược (10 tỷ USD của NVIDIA, 5 tỷ USD của Microsoft) - Tài trợ nợ tiềm năng khi các cơ sở đi vào hoạt động
Cam kết đại diện cho khát vọng nhiều năm đòi hỏi quyền truy cập vốn bền vững. Điều kiện kinh tế ảnh hưởng đến đầu tư công nghệ có thể hạn chế sự sẵn có của tài trợ.
Phối hợp đa nhà cung cấp
Hoạt động đồng thời trên AWS, Google Cloud, Azure và Fluidstack tạo ra sự phức tạp trong phối hợp: - API, công cụ và thực hành vận hành khác nhau - Tối ưu hóa vị trí khối lượng công việc trên các nhà cung cấp - Bảo mật và tuân thủ trên nhiều môi trường - Phân bổ chi phí và tối ưu hóa trên các hợp đồng
Lợi ích của chiến lược đa đám mây (khả năng phục hồi, đòn bẩy đàm phán) đi kèm với chi phí vận hành mà các cách tiếp cận tập trung tránh được.
Yêu cầu hỗ trợ chuyên nghiệp
550 kỹ sư thực địa của Introl hỗ trợ các tổ chức triển khai hạ tầng AI quy mô lớn trên nhiều nhà cung cấp và kiến trúc.[^17] Công ty xếp hạng #14 trong danh sách Inc. 5000 năm 2025 với tăng trưởng ba năm 9.594%, phản ánh nhu cầu về chuyên môn triển khai đa đám mây.[^18]
Các triển khai trên 257 địa điểm toàn cầu đòi hỏi thực hành vận hành nhất quán bất kể nhà cung cấp cơ bản.[^19] Introl quản lý các triển khai đạt 100.000 GPU với hơn 40.000 dặm hạ tầng mạng cáp quang.[^20]
Khung quyết định cho người lập kế hoạch hạ tầng
Chiến lược của Anthropic cung cấp bài học cho các tổ chức đánh giá các phương pháp hạ tầng AI.
Lựa Chọn Chiến Lược Hạ Tầng:
| Hồ sơ của bạn | Cách tiếp cận khuyến nghị | Lý do |
|---|---|---|
| <10 triệu USD chi tiêu GPU hàng năm | Thuê nhà cung cấp lớn | Quy mô không đủ cho hạ tầng chuyên dụng |
| 10-100 triệu USD chi tiêu hàng năm | Đa đám mây với công suất cam kết | Cân bằng linh hoạt với giá cả |
| >100 triệu USD chi tiêu hàng năm | Kết hợp sở hữu + thuê | Tối ưu hóa kinh tế ở quy mô |
| Phát triển AI tiên phong | Danh mục đa nhà cung cấp | Đảm bảo công suất, tùy chọn kiến trúc |
Tín hiệu cần theo dõi
Theo dõi các chỉ báo cho thấy mô hình phân tán của Anthropic vượt trội hơn cách tiếp cận tập trung của Stargate (hoặc ngược lại): - Chỉ số hiệu quả huấn luyện tương đối từ các bản phát hành Claude so với GPT - Tiến độ triển khai cơ sở đạt hoặc lỡ mục tiêu - Xu hướng chi phí trên mỗi token trong giá API - So sánh hiệu suất kiến trúc (NVIDIA so với Trainium so với TPU)
Điểm chính
Đối với người vận hành hạ tầng AI: - Chiến lược đa nhà cung cấp giảm rủi ro phụ thuộc nhưng tăng độ phức tạp vận hành - Quan hệ đối tác neocloud cung cấp lợi thế tốc độ và tùy chỉnh so với nhà cung cấp lớn - Hạ tầng đã trở thành
[Nội dung bị cắt ngắn để dịch]