Trump mở xuất khẩu H200 sang Trung Quốc với phụ phí 25%
Trump đảo ngược các hạn chế xuất khẩu của Biden, cho phép bán NVIDIA H200 sang Trung Quốc với phụ phí 25%. GPU Blackwell vẫn bị hạn chế. Kiểm soát dựa trên thuế quan thay thế lệnh cấm.
Thông tin chuyên sâu về hạ tầng GPU, AI và trung tâm dữ liệu.
Trump đảo ngược các hạn chế xuất khẩu của Biden, cho phép bán NVIDIA H200 sang Trung Quốc với phụ phí 25%. GPU Blackwell vẫn bị hạn chế. Kiểm soát dựa trên thuế quan thay thế lệnh cấm.
Siêu chu kỳ bộ nhớ AI đã đến. Với HBM bán hết đến năm 2026, thị trường tiềm năng 100 tỷ USD vào năm 2028, và GPU gaming bị ảnh hưởng lây, bộ nhớ đã trở thành ràng buộc hạ tầng quan trọng nhất của AI.
Khung Hyper-Connections Ràng Buộc Đa Tạp mới của DeepSeek giải quyết vấn đề mở rộng quy mô tồn tại hàng thập kỷ, cho phép huấn luyện ổn định các mô hình 27B+ tham số chỉ với 6,7% chi phí bổ sung.
Chính quyền Trump đảo ngược các biện pháp kiểm soát xuất khẩu đối với chip H200 của Nvidia sang Trung Quốc, yêu cầu 25% doanh thu. Đây là ý nghĩa của sự thay đổi chính sách đối với cơ sở hạ tầng AI.
Trump đảo ngược các hạn chế xuất khẩu thời Biden, cho phép bán NVIDIA H200 sang Trung Quốc với phụ thu 25%. GPU Blackwell vẫn bị hạn chế. Kiểm soát dựa trên thuế quan thay thế lệnh cấm.
DOJ triệt phá mạng lưới buôn lậu chip NVIDIA trị giá 160 triệu USD sang Trung Quốc. Bản án đầu tiên về chuyển hướng AI. GPU H100/H200 được dán nhãn lại thành 'SANDKYAN.' Chiến dịch Gatekeeper vẫn đang...
OpenAI và NVIDIA công bố quan hệ đối tác trị giá 100 tỷ đô la để triển khai hạ tầng AI 10 gigawatt, với nền tảng Vera Rubin cung cấp tám exaflops bắt đầu từ năm 2026.
RTX 5090 kép có hiệu suất ngang ngửa H100 cho các mô hình 70B với chi phí chỉ 25%. Hướng dẫn giá cả phần cứng đầy đủ cho triển khai LLM cục bộ từ GPU tiêu dùng đến doanh nghiệp.
FP4 inference mang lại hiệu quả năng lượng cao hơn 25-50 lần với việc giảm 3.5x bộ nhớ. DeepSeek-R1 đạt 250+ tokens/giây. Kỷ nguyên $0.02/token đã đến.
GB300 NVL72 của NVIDIA cung cấp hiệu suất AI gấp 1.5 lần so với GB200 với 72 GPU Blackwell Ultra, 288 GB bộ nhớ trên mỗi GPU, và băng thông NVLink 130 TB/s. Đây là những điều mà các kỹ sư triển khai c...
NVIDIA's H100, H200, và B200 GPU đều phục vụ các nhu cầu hạ tầng AI khác nhau—từ H100 đã được chứng minh là con ngựa thồ đến H200 với bộ nhớ phong phú và B200 đột phá. Chúng tôi phân tích hiệu suất th...
CEO NVIDIA Jensen Huang trong bài phát biểu chính tại Computex 2025 không chỉ là một buổi ra mắt sản phẩm thông thường—mà là bản thiết kế cho cuộc cách mạng lớn thứ ba trong lĩnh vực máy tính. Khi các...
Hãy cho chúng tôi biết về dự án của bạn và chúng tôi sẽ phản hồi trong vòng 72 giờ.
Cảm ơn bạn đã gửi yêu cầu. Đội ngũ của chúng tôi sẽ xem xét và phản hồi trong vòng 72 giờ.