Hạ tầng AI Nhật Bản: Nền kinh tế lớn nhất châu Á thức giấc
Cập nhật ngày 11 tháng 12 năm 2025
Cập nhật tháng 12/2025: Nhật Bản giải phóng 135 tỷ USD đầu tư AI kết hợp công-tư. METI cam kết ¥10T (65 tỷ USD) đến năm 2030. SoftBank vận hành DGX SuperPOD đầu tiên trên thế giới với DGX B200 (hơn 10.000 GPU, 13,7 EXAFLOPS). SAKURA internet mở rộng lên 10.800 GPU bao gồm HGX B200. ABCI 3.0 cung cấp 6,2 EXAFLOPS thông qua hàng nghìn H200.
Nhật Bản đã dành nhiều thập kỷ đứng ngoài cuộc xem Silicon Valley thống trị cuộc cách mạng AI. Giờ đây, nền kinh tế lớn thứ tư thế giới đã giải phóng 135 tỷ USD đầu tư kết hợp công-tư để xây dựng năng lực AI có chủ quyền.¹ Quy mô triển khai đưa Nhật Bản vào quỹ đạo vận hành một số siêu máy tính AI mạnh nhất thế giới vào năm 2026, định hình lại căn bản cách các doanh nghiệp khắp châu Á tiếp cận năng lực tính toán GPU.
Cách tiếp cận của Nhật Bản khác với mô hình do hyperscaler thống trị ở các thị trường khác. Trợ cấp chính phủ chảy trực tiếp đến các nhà cung cấp đám mây nội địa, trong khi các tập đoàn khổng lồ như SoftBank và NTT xây dựng các cơ sở AI chuyên dụng được thiết kế cho nhu cầu doanh nghiệp địa phương. Hiểu được quá trình xây dựng hạ tầng của Nhật Bản sẽ hé lộ cơ hội cho các tổ chức tìm kiếm giải pháp thay thế cho các nhà cung cấp đám mây lấy Mỹ làm trung tâm và quyền truy cập vào năng lực tính toán AI được xây dựng theo mục đích với chi phí cạnh tranh.
Đẩy mạnh hạ tầng với sự hỗ trợ của chính phủ
Bộ Kinh tế, Thương mại và Công nghiệp Nhật Bản (METI) đã cam kết ¥10 nghìn tỷ (65 tỷ USD) đến năm 2030 để định vị đất nước như một nhà lãnh đạo AI toàn cầu.² Bộ đã phân bổ 740 triệu USD trợ cấp trực tiếp cho sáu công ty nội địa xây dựng hạ tầng điện toán AI, tài trợ lên đến một nửa khoản đầu tư của mỗi công ty.³
SAKURA internet nhận được khoản phân bổ đơn lẻ lớn nhất là ¥50,1 tỷ (324 triệu USD) để mở rộng triển khai GPU từ 2.000 lên khoảng 10.800 GPU NVIDIA, bao gồm hạ tầng HGX B200 thế hệ tiếp theo tại trung tâm dữ liệu Ishikari của công ty.⁴ KDDI theo sau với ¥10,2 tỷ (66 triệu USD) để xây dựng các dịch vụ đám mây AI trên khắp các vùng đô thị Nhật Bản.
Dự án quốc gia hàng đầu ABCI 3.0 thể hiện cam kết của Nhật Bản với hạ tầng AI công cộng. Hewlett-Packard Enterprise đã xây dựng siêu máy tính sử dụng hàng nghìn GPU NVIDIA H200 Tensor Core, cung cấp hiệu suất đỉnh lý thuyết 6,2 exaflops.⁵ Viện Khoa học và Công nghệ Công nghiệp Tiên tiến Quốc gia Nhật Bản (AIST) vận hành ABCI 3.0 như hạ tầng điện toán mở có sẵn cho các nhà nghiên cứu và doanh nghiệp trên toàn quốc.
Trợ cấp của METI đi kèm điều kiện ràng buộc. Bộ hiện yêu cầu các trung tâm dữ liệu được xây dựng sau năm 2029 phải đáp ứng tiêu chuẩn hiệu quả năng lượng hoặc phải trả phí phạt.⁶ Nội các của Thủ tướng Shigeru Ishiba đã chỉ đạo METI và MIC tạo ra khung "Hợp tác Watt-Bit" kết nối các nhà vận hành trung tâm dữ liệu với các công ty điện lực để giải quyết các nút thắt hạ tầng trước khi chúng hạn chế tăng trưởng.
Cược lớn của SoftBank vào sự thống trị AI nội địa
SoftBank vận hành NVIDIA DGX SuperPOD đầu tiên trên thế giới được xây dựng với hệ thống DGX B200, nhắm mục tiêu hơn 10.000 GPU có khả năng cung cấp 13,7 exaflops năng lực tính toán AI.⁷ Công ty dự định mở rộng tổng năng lực tính toán lên 25,7 exaflops khi có thêm GPU Blackwell.
Chiến lược hạ tầng của SoftBank trải dài trên hai dự án trung tâm dữ liệu mang tính chuyển đổi. Cơ sở Hokkaido Tomakomai có diện tích 700.000 mét vuông với công suất điện hơn 300 MW, trong khi nhà máy Sharp Sakai được chuyển đổi tại Osaka cung cấp 150 MW ban đầu có thể mở rộng lên 400 MW.⁸ Cả hai cơ sở đều vận hành bằng 100% năng lượng tái tạo, giải quyết mối lo ngại ngày càng tăng của Nhật Bản về tính bền vững xung quanh hạ tầng AI.
Khoản đầu tư định vị SoftBank như giải pháp thay thế nội địa chính cho các dịch vụ AI của hyperscaler. Các doanh nghiệp Nhật Bản làm việc với dữ liệu nhạy cảm hoặc yêu cầu suy luận độ trễ thấp có thể tiếp cận hạ tầng GPU tiên tiến mà không cần định tuyến lưu lượng qua các nhà cung cấp nước ngoài. Sự tích hợp chặt chẽ của SoftBank với hạ tầng viễn thông Nhật Bản cho phép các kịch bản điện toán biên không thể thực hiện được với các giải pháp thay thế có trụ sở tại Mỹ.
Cuộc tấn công hạ tầng 59 tỷ USD của NTT
NTT Corporation đã cam kết 59 tỷ USD (¥8 nghìn tỷ) trong năm năm để chuyển đổi thành công ty lấy AI làm trọng tâm.⁹ Chiến lược bao gồm thương vụ mua lại NTT Data trị giá 16,4 tỷ USD để hợp nhất năng lực nghiên cứu và triển khai AI dưới sự lãnh đạo thống nhất.
Kế hoạch xây dựng của NTT Data bao gồm Khu trung tâm dữ liệu Shiroi 50 MW gần Tokyo thông qua liên doanh với TEPCO Power Grid.¹⁰ Dự án Công viên Công nghiệp Liên ngành Tochigi bổ sung khoảng 100 MW trên 32 mẫu Anh, tạo công suất dự phòng cho các khối lượng công việc doanh nghiệp yêu cầu đa dạng địa lý trong khu vực đô thị Tokyo.
Quy mô cam kết của NTT sánh ngang với các khoản đầu tư của hyperscaler ở các thị trường khác. Kết hợp với hạ tầng viễn thông hiện có trải khắp Nhật Bản, NTT có thể cung cấp dịch vụ AI với tối ưu hóa cấp mạng không có sẵn từ các đối thủ nước ngoài. Các doanh nghiệp đang chạy trên kết nối NTT có được tích hợp liền mạch với hạ tầng GPU mà không cần tái cấu trúc cấu hình mạng của họ.
Cạnh tranh hyperscaler ngày càng gay gắt
Các hyperscaler toàn cầu nhận ra tầm quan trọng chiến lược của Nhật Bản và đã cam kết 28 tỷ USD đầu tư kết hợp sau khi chính phủ chỉ định Oracle, Google và Microsoft là các nhà cung cấp đám mây chính thức.¹¹
Amazon Web Services công bố 15,5 tỷ USD để mở rộng công suất trung tâm dữ liệu, xây dựng trên sự hiện diện được thiết lập tại khu vực Tokyo từ năm 2011 và khu vực Osaka được bổ sung vào năm 2021.¹² Khoản đầu tư nhắm vào các khối lượng công việc AI tạo sinh khi các doanh nghiệp Nhật Bản chuyển từ thử nghiệm sang triển khai sản xuất.
Google khai trương trung tâm dữ liệu đầu tiên tại Nhật Bản ở Inzai trong năm 2023 như một phần của khoản đầu tư ban đầu 730 triệu USD.¹³ Công ty sau đó công bố mua sắm 60 MW năng lượng tái tạo thông qua quan hệ đối tác với Clean Energy Connect và Shizen Energy để cung cấp năng lượng cho các hoạt động mở rộng.
Microsoft ký thỏa thuận mua điện đầu tiên tại Nhật Bản với Shizen Energy, mua năng lượng từ trang trại năng lượng mặt trời 25 MW tại Tỉnh Aichi để hỗ trợ các khối lượng công việc AI.¹⁴ Sự hiện diện hàng thập kỷ của công ty tại Nhật Bản thông qua các trung tâm dữ liệu Azure được thiết lập từ năm 2014 mang lại lợi thế cạnh tranh trong các mối quan hệ doanh nghiệp.
Sự hiện diện của hyperscaler tạo ra cạnh tranh lành mạnh có lợi cho các doanh nghiệp Nhật Bản. Các tổ chức có thể đàm phán giữa các nhà cung cấp nội địa như SoftBank và NTT so với các giải pháp thay thế toàn cầu, tối ưu hóa về giá cả, hiệu suất, chủ quyền dữ liệu hoặc yêu cầu tích hợp tùy thuộc vào đặc điểm khối lượng công việc.
Sakana AI và phong trào LLM có chủ quyền
Sakana AI có trụ sở tại Tokyo đã hoàn thành vòng gọi vốn Series B trị giá ¥20 tỷ (135 triệu USD) vào tháng 11 năm 2025, đạt định giá 2,65 tỷ USD và trở thành kỳ lân AI có giá trị nhất Nhật Bản.¹⁵ Được thành lập bởi các nhà nghiên cứu cũ của Google bao gồm Llion Jones (đồng tác giả bài báo transformer gốc), Sakana xây dựng các mô hình được tối ưu hóa cho ngôn ngữ và văn hóa Nhật Bản thay vì cạnh tranh trực tiếp với các mô hình tiên phong của Mỹ.
Kỹ thuật "Evolutionary Model Merge" của Sakana kết hợp các khả năng từ các mô hình mã nguồn mở khác nhau, cho phép phát triển các hệ thống AI chuyên biệt mà không cần huấn luyện từ đầu.¹⁶ Cách tiếp cận này đã tạo ra LLM Toán Nhật Bản 7 tỷ tham số vượt trội hiệu suất của nhiều mô hình 70 tỷ tham số trên các benchmark ngôn ngữ Nhật.
Các quan hệ đối tác doanh nghiệp với Daiwa Securities và MUFG Bank xác nhận cách tiếp cận của Sakana cho các ứng dụng tài chính yêu cầu độ chính xác ngôn ngữ Nhật.¹⁷ Công ty dự định mở rộng sang các lĩnh vực sản xuất, chính phủ và quốc phòng nơi các khả năng AI được tối ưu hóa cho Nhật Bản mang lại lợi thế chiến lược so với các giải pháp thay thế nước ngoài.
Phong trào AI có chủ quyền phản ánh mối lo ngại rộng hơn về sự phụ thuộc vào các nhà cung cấp công nghệ Mỹ và Trung Quốc. Các doanh nghiệp Nhật Bản xử lý dữ liệu tài chính, y tế hoặc chính phủ nhạy cảm ngày càng ưa thích các nhà cung cấp AI nội địa, tạo cơ hội thị trường cho các công ty như Sakana tối ưu hóa cho yêu cầu địa phương thay vì quy mô toàn cầu.
Thách thức lưới điện đe dọa mở rộng
Việc mở rộng trung tâm dữ liệu của Nhật Bản sẽ thúc đẩy 60% tổng mức tăng trưởng nhu cầu điện của đất nước, với tiêu thụ điện được dự báo tăng gấp ba từ 19 TWh năm 2024 lên từ 57 đến 66 TWh vào năm 2034.¹⁸ Đáp ứng nhu cầu đòi hỏi giải quyết những gì các nhà phân tích gọi là "ba sự không khớp" giữa hạ tầng AI và hạ tầng năng lượng.
Sự không khớp về địa lý tạo ra thách thức đầu tiên. Khoảng 90% trung tâm dữ liệu tập trung trong hành lang Tokyo-Osaka, trong khi hầu hết các cơ sở năng lượng tái tạo và nhà máy điện hạt nhân quy mô lớn hoạt động ở Hokkaido và Kyushu.¹⁹ Việc di chuyển điện từ các vùng phát điện đến các trung tâm nhu cầu đòi hỏi hạ tầng truyền tải mà Nhật Bản chưa xây dựng.
Sự không khớp về thời gian tạo ra trở ngại thứ hai. Các hyperscaler ưa thích lịch trình triển khai dưới năm năm, trong khi các dự án tuabin khí chu trình kết hợp yêu cầu bảy đến mười năm từ lập kế hoạch đến vận hành.²⁰ Khoảng cách này đẩy các dự án trung tâm dữ liệu lớn đến năm 2029 bất kể vốn khả dụng.
Sự không khớp về cơ cấu năng lượng làm trầm trọng thêm vấn đề. Than và khí vẫn sẽ chiếm hơn 40% công suất vào năm 2034, với năng lượng tái tạo chỉ đạt 17% vào năm 2030.²¹ Các thách thức cấu trúc bao gồm sự miễn cưỡng đầu tư vào năng lượng tái tạo của các công ty tiện ích, các ràng buộc lưới điện và các khuôn khổ truyền tải không đầy đủ đã cản trở việc tích hợp năng lượng tái tạo.
Các giải pháp sáng tạo đang xuất hiện để giải quyết các ràng buộc. Honda, Tokuyama và Mitsubishi Corporation đã khởi động sáng kiến xây dựng trung tâm dữ liệu chạy bằng hydro đầu tiên của Nhật Bản sử dụng pin nhiên liệu tái chế.²² Nippon Yusen, NTT và các đối tác đang xây dựng một trung tâm dữ liệu xanh nổi ngoài khơi tại cảng Yokohama như dự án trình diễn cho hạ tầng AI trên biển.
Mô hình triển khai GPU theo vùng
Hạ tầng GPU của Nhật Bản trải rộng trên nhiều vùng, mỗi vùng mang lại những lợi thế riêng biệt cho các loại khối lượng công việc khác nhau.
Hokkaido (Bắc Nhật Bản): Cơ sở Tomakomai của SoftBank là trụ cột của hạ tầng phía bắc với công suất hơn 300 MW và năng lượng tái tạo từ gió và địa nhiệt. Khí hậu mát mẻ giảm đáng kể chi phí làm mát. Vị trí gần cáp ngầm kết nối đến Bắc Mỹ cung cấp quyền truy cập độ trễ thấp đến thị trường Mỹ.
Khu vực Đại đô thị Tokyo: Các cơ sở Shiroi và Tochigi của NTT Data phục vụ các khối lượng công việc doanh nghiệp yêu cầu độ trễ tối thiểu đến quận tài chính Tokyo. Các triển khai GPU mở rộng của SAKURA internet nhắm vào suy luận AI cho các ứng dụng đô thị. Highreso cung cấp quyền truy cập vào 1.600 GPU cho các nhà nghiên cứu và doanh nghiệp yêu cầu công suất tăng đột biến.²³
Vùng Osaka/Kansai: Nhà máy Sharp Sakai được chuyển đổi của SoftBank cung cấp công suất 150-400 MW phục vụ cơ sở sản xuất của miền Tây Nhật Bản. Đám mây AI có trụ sở tại Kyoto của Rutilea cung cấp hơn 1.000 GPU Hopper cho phát triển LLM với kết nối văn hóa đến cộng đồng nghiên cứu học thuật của Nhật Bản.²⁴
Vùng Ishikari: Trung tâm dữ liệu hàng đầu của SAKURA internet lưu trữ hạ tầng HGX B200 của công ty, nhắm mục tiêu khoảng 10.800 tổng GPU.²⁵ Vị trí này được hưởng lợi từ quyền truy cập năng lượng tái tạo và khí hậu mát mẻ trong khi duy trì kết nối đến thị trường Tokyo.
Các tổ chức triển khai hạ tầng AI tại Nhật Bản có thể tận dụng vùng phủ sóng khu vực của Introl cho việc triển khai phần cứng, với 550 kỹ sư hiện trường có sẵn trên khắp APAC để hỗ trợ các lắp đặt GPU phức tạp.
Khung quyết định doanh nghiệp
Việc lựa chọn hạ tầng AI tại Nhật Bản đòi hỏi đánh giá các đánh đổi trên nhiều chiều:
Yêu cầu chủ quyền dữ liệu: Các doanh nghiệp xử lý dữ liệu được quản lý nên đánh giá các nhà cung cấp nội địa (SoftBank, NTT, SAKURA) so với hyperscaler dựa trên yêu cầu lưu trú dữ liệu, bảo vệ hợp đồng và khả năng kiểm toán.
Tối ưu hóa mô hình ngôn ngữ: Các ứng dụng yêu cầu xử lý ngôn ngữ Nhật có thể hưởng lợi từ các nhà cung cấp LLM nội địa như Sakana AI thay vì tinh chỉnh các mô hình nước ngoài. Tối ưu hóa ngôn ngữ bản địa thường vượt trội các mô hình đa ngôn ngữ trên các ứng dụng đặc thù văn hóa.
[Nội dung được cắt ngắn cho bản dịch]