Kế toán Carbon cho Khối lượng Công việc AI: Đo lường và Báo cáo Phát thải GPU
Cập nhật ngày 11 tháng 12 năm 2025
Cập nhật tháng 12 năm 2025: NVIDIA công bố PCF của H100 ở mức 1.312 kg CO2e mỗi baseboard 8 card (164 kg/card). Nghiên cứu của Cornell dự báo 24-44 triệu tấn CO2 hàng năm từ AI vào năm 2030. Phát thải của Amazon tăng lên 68,25 triệu tấn vào năm 2024, lần tăng đầu tiên kể từ năm 2021. Máy chủ AI được dự báo sẽ tiêu thụ 70-80% điện năng của trung tâm dữ liệu Hoa Kỳ (240-380 TWh) vào năm 2028.
NVIDIA đã công bố Dấu chân Carbon Sản phẩm (Product Carbon Footprint) cho baseboard H100 với tám card H100 SXM, ước tính phát thải nhúng ở mức 1.312 kg CO2e—xấp xỉ 164 kg CO2e mỗi card.[^1] Bộ nhớ đóng góp 42% dấu chân nhúng, mạch tích hợp đóng góp 25%, và các thành phần tản nhiệt đóng góp 18%. Việc công bố này đại diện cho đánh giá đầu tiên từ nhà cung cấp mang lại sự minh bạch về tác động môi trường của GPU, thiết lập cơ sở cho các tổ chức theo dõi phát thải từ cơ sở hạ tầng AI.
Tầm quan trọng của kế toán carbon AI tăng lên với mỗi lần triển khai. Một nghiên cứu của Cornell phát hiện rằng đến năm 2030, tốc độ tăng trưởng AI hiện tại sẽ phát thải hàng năm từ 24 đến 44 triệu tấn CO2—tương đương với việc thêm 5 đến 10 triệu xe ô tô vào các con đường Hoa Kỳ.[^2] Amazon báo cáo phát thải tăng từ 64,38 triệu tấn năm 2023 lên 68,25 triệu tấn năm 2024, lần tăng đầu tiên của công ty kể từ năm 2021, chủ yếu do trung tâm dữ liệu và hoạt động giao hàng.[^3] Phát thải khí nhà kính năm 2023 của Google tăng 13% so với cùng kỳ năm trước trong cuộc đua AI.[^4] Các tổ chức triển khai cơ sở hạ tầng AI cần các phương pháp kế toán carbon đo lường tác động và xác định cơ hội giảm thiểu.
Hiểu các thành phần dấu chân carbon AI
Dấu chân carbon của AI bao gồm hai thành phần chính: phát thải nhúng từ sản xuất thiết bị IT và xây dựng trung tâm dữ liệu, và phát thải vận hành từ điện năng tiêu thụ trong các tính toán liên quan đến AI.[^5] Kế toán carbon toàn diện phải đề cập đến cả hai danh mục.
Phát thải nhúng
Phát thải nhúng xảy ra trước khi hệ thống AI xử lý một token nào. Sản xuất GPU đòi hỏi chế tạo bán dẫn tiêu tốn năng lượng, khai thác đất hiếm, và vận chuyển chuỗi cung ứng toàn cầu. Phân tích PCF của H100 từ NVIDIA cho thấy bản chất phân tán của carbon nhúng qua các thành phần bộ nhớ, xử lý và làm mát.[^6]
Xây dựng trung tâm dữ liệu bổ sung phát thải nhúng từ bê tông, thép và các hệ thống cơ khí. Một trung tâm dữ liệu quy mô siêu lớn nhúng hàng triệu tấn CO2e trước khi đi vào hoạt động. Phát thải xây dựng được phân bổ theo thời gian hoạt động của cơ sở, nhưng các triển khai AI mật độ cao có thể yêu cầu làm mới cơ sở hạ tầng thường xuyên hơn so với điện toán truyền thống.
Phát thải vận hành
Phát thải vận hành phụ thuộc vào cường độ tính toán và cường độ carbon của điện. Máy chủ AI tiêu thụ 23% tổng điện năng trung tâm dữ liệu Hoa Kỳ vào năm 2024 và sẽ tiêu thụ 70-80% (240-380 TWh hàng năm) vào năm 2028 theo Báo cáo Sử dụng Năng lượng Trung tâm Dữ liệu Hoa Kỳ 2024.[^7]
Cường độ carbon của điện đó thay đổi đáng kể theo vị trí và thời gian. Một GPU tiêu thụ 700W trong lưới điện than tạo ra nhiều phát thải hơn phần cứng tương tự trong cơ sở sử dụng năng lượng tái tạo. Khoảng 56% điện năng tiêu thụ bởi các trung tâm dữ liệu Hoa Kỳ đến từ các nhà máy đốt nhiên liệu hóa thạch, với 16% từ than.[^8] Tối ưu hóa địa lý và thời gian của khối lượng công việc AI mang lại cơ hội giảm phát thải đáng kể.
Chỉ số và tiêu chuẩn
Kế toán carbon cho AI đòi hỏi các chỉ số tiêu chuẩn hóa cho phép so sánh giữa các tổ chức và xác minh các tuyên bố giảm thiểu.
Các chỉ số trung tâm dữ liệu đã được thiết lập
Hiệu quả Sử dụng Điện (Power Usage Effectiveness - PUE) đo lường hiệu quả cơ sở hạ tầng trung tâm dữ liệu bằng cách so sánh tổng điện năng cơ sở với điện năng thiết bị IT.[^9] PUE là 1,5 có nghĩa là 50% điện năng dành cho làm mát và chi phí chung. Các trung tâm dữ liệu hiện đại nhắm đến PUE dưới 1,2.
Hiệu quả Cơ sở hạ tầng Trung tâm Dữ liệu (Data Center Infrastructure Efficiency - DCIE) đảo ngược PUE, biểu thị điện năng IT như phần trăm của tổng điện năng. Cả hai chỉ số giúp tối ưu hóa cơ sở hạ tầng nhưng không trực tiếp đo lường phát thải carbon.
Hiệu quả Sử dụng Carbon (Carbon Usage Effectiveness - CUE) liên kết sử dụng năng lượng với phát thải carbon (kg CO2 mỗi kWh), tính đến nguồn điện.[^10] CUE nắm bắt chiều cường độ carbon mà PUE bỏ lỡ.
Hệ số Tái sử dụng Năng lượng (Energy Reuse Factor - ERF) định lượng việc tái sử dụng nhiệt thải, ghi nhận các cơ sở cung cấp nhiệt cho người tiêu dùng bên ngoài.[^11] Các thỏa thuận sưởi ấm khu vực nơi nhiệt thải trung tâm dữ liệu sưởi ấm các tòa nhà làm giảm phát thải ròng.
Thách thức đo lường đặc thù AI
TDP của GPU đã tăng trung bình 41,5% mỗi năm (tích lũy) từ 2021 đến 2025.[^12] Mức tăng công suất vượt qua cải tiến hiệu quả, có nghĩa là GPU thế hệ tiếp theo tiêu thụ nhiều năng lượng hơn ngay cả khi chúng xử lý nhiều token hơn mỗi watt.
Phát thải từ huấn luyện so với suy luận đòi hỏi kế toán riêng biệt. Một lần chạy huấn luyện tiêu thụ hàng tháng thời gian GPU trên hàng nghìn bộ tăng tốc tạo ra phát thải một lần đáng kể. Phát thải suy luận tích lũy khi người dùng truy vấn mô hình đã huấn luyện trong suốt thời gian hoạt động của nó. Các tổ chức phải theo dõi cả hai giai đoạn.
Công cụ theo dõi và báo cáo
Một số công cụ và framework hỗ trợ kế toán carbon AI.
eco2AI
Gói mã nguồn mở eco2AI giúp các nhà khoa học dữ liệu theo dõi tiêu thụ năng lượng và phát thải CO2 tương đương của các mô hình học máy.[^13] Công cụ tập trung vào theo dõi năng lượng chính xác và kế toán phát thải CO2 theo khu vực, chuyển đổi thời gian tính toán thành tác động carbon dựa trên cường độ carbon của lưới điện.
Các nhà nghiên cứu tích hợp eco2AI vào các pipeline huấn luyện để tích lũy ước tính phát thải qua các thí nghiệm. Cách tiếp cận này hiển thị chi phí carbon cùng với các chỉ số độ chính xác, cho phép đưa ra quyết định phát triển mô hình có nhận thức về carbon.
Các framework pháp lý
Vào đầu năm 2024, các nhà lập pháp đã giới thiệu Đạo luật Tác động Môi trường của Trí tuệ Nhân tạo, chỉ đạo EPA nghiên cứu dấu chân môi trường của AI và phát triển các tiêu chuẩn đo lường thông qua NIST.[^14] Hệ thống báo cáo tự nguyện được đề xuất sẽ tiêu chuẩn hóa cách các tổ chức công bố phát thải AI.
Đạo luật AI của EU thiết lập các yêu cầu quản trị dữ liệu ảnh hưởng đến báo cáo bền vững AI. Các tổ chức triển khai hệ thống AI rủi ro cao có thể phải đối mặt với các yêu cầu công bố bao gồm tác động môi trường. Quỹ đạo pháp lý gợi ý rằng báo cáo bắt buộc sẽ theo sau các framework tự nguyện.
Chiến lược giảm thiểu
Các nhà nghiên cứu Cornell kết luận rằng "không có viên đạn bạc" cho việc giảm phát thải AI.[^15] Vị trí đặt, khử carbon lưới điện, và vận hành hiệu quả phối hợp với nhau để đạt được mức giảm khoảng 73% cho carbon và 86% cho nước. Các chiến lược hiệu quả kết hợp nhiều cách tiếp cận.
Tối ưu hóa địa lý
Vị trí trung tâm dữ liệu quyết định cường độ carbon cơ sở. Các cơ sở ở các khu vực có lưới điện tái tạo cao tạo ra ít phát thải hơn các cơ sở tương tự ở các khu vực phụ thuộc nhiên liệu hóa thạch. Virginia có nhiều trung tâm dữ liệu Hoa Kỳ nhất (301), tiếp theo là California (248) và Texas (221).[^16] Mỗi bang cung cấp các hồ sơ carbon lưới điện khác nhau.
Các tổ chức có sự linh hoạt về khối lượng công việc có thể định tuyến các công việc đến các vị trí có carbon thấp hơn. Các lần chạy huấn luyện chịu được độ trễ có thể chuyển sang thời gian và địa điểm nơi sản xuất năng lượng tái tạo đạt đỉnh. Việc tối ưu hóa đòi hỏi khả năng lập lịch có nhận thức về carbon.
Hiệu quả vận hành
Vận hành hiệu quả giảm tiêu thụ năng lượng bất kể cường độ carbon của lưới điện. Schneider Electric đã hợp tác với NVIDIA để thiết kế các kiến trúc tham chiếu giảm tiêu thụ năng lượng làm mát gần 20%.[^17] Các cải tiến hiệu quả tương tự qua phân phối điện, làm mát và sử dụng tính toán nhân lên thành giảm phát thải đáng kể.
Tối ưu hóa khối lượng công việc AI giảm yêu cầu tính toán cho đầu ra tương đương. Chưng cất mô hình, lượng tử hóa, và các framework suy luận hiệu quả như NVIDIA NIM giảm năng lượng mỗi suy luận. Cải tiến hiệu quả ở cấp khối lượng công việc nhân lên qua hàng triệu yêu cầu suy luận.
Thu mua năng lượng tái tạo
Thu mua năng lượng tái tạo trực tiếp thông qua các thỏa thuận mua điện đảm bảo điện sạch cho các hoạt động AI. Các tổ chức có thể thu mua năng lượng không carbon 24/7 khớp với tiêu thụ theo từng giờ thay vì hàng năm, loại bỏ tiêu thụ nhiên liệu hóa thạch còn lại trong các khoảng lặng năng lượng tái tạo.
Phát điện tại chỗ với năng lượng mặt trời và lưu trữ pin cung cấp điện tái tạo mà không có tổn thất truyền tải. Các khuôn viên trung tâm dữ liệu ở các khu vực có nhiều nắng có thể tạo ra phần đáng kể tiêu thụ của họ tại địa phương.
Triển khai kế toán carbon
Các tổ chức triển khai kế toán carbon AI nên thiết lập các phép đo cơ sở, tích hợp theo dõi vào hoạt động, và phát triển lộ trình giảm thiểu.
Thiết lập cơ sở
Kiểm kê cơ sở hạ tầng AI hiện có bao gồm số lượng GPU, xếp hạng công suất và mô hình sử dụng. Ghi lại vị trí trung tâm dữ liệu và nguồn điện. Tính toán phát thải vận hành hiện tại sử dụng tiêu thụ điện đo được và các hệ số cường độ carbon khu vực.
Ước tính phát thải nhúng sử dụng công bố của nhà cung cấp như PCF H100 của NVIDIA và trung bình ngành cho các thành phần không được liệt kê. Phân bổ phát thải nhúng theo thời gian hoạt động dự kiến của thiết bị, thường là 3-5 năm cho các bộ tăng tốc.
Tích hợp vận hành
Tích hợp theo dõi phát thải vào giám sát cơ sở hạ tầng. Các công cụ giám sát GPU như NVIDIA DCGM cung cấp dữ liệu tiêu thụ điện. Kết hợp đo từ xa công suất với các API cường độ carbon cung cấp thông tin carbon lưới điện thời gian thực.
Mạng lưới 550 kỹ sư thực địa của Introl hỗ trợ các tổ chức triển khai giám sát cơ sở hạ tầng GPU tập trung vào bền vững.[^18] Công ty xếp hạng #14 trong danh sách Inc. 5000 năm 2025 với mức tăng trưởng 9.594% trong ba năm, phản ánh nhu cầu về dịch vụ cơ sở hạ tầng chuyên nghiệp.[^19]
Triển khai giám sát trên 257 địa điểm toàn cầu đòi hỏi các thực hành nhất quán cho phép kế toán carbon có thể so sánh được giữa các cơ sở.[^20] Introl quản lý các triển khai đạt 100.000 GPU với hơn 40.000 dặm cơ sở hạ tầng mạng cáp quang, cung cấp quy mô vận hành cho theo dõi phát thải toàn diện.[^21]
Lộ trình giảm thiểu
Đặt mục tiêu giảm phát thải phù hợp với các mục tiêu dựa trên khoa học và cam kết của tổ chức. Xác định cơ hội giảm thiểu qua hiệu quả, thu mua năng lượng tái tạo, và tối ưu hóa địa lý. Ưu tiên các hành động theo tác động phát thải và tính khả thi triển khai.
Theo dõi tiến độ so với cơ sở và mục tiêu. Báo cáo phát thải theo các tiêu chuẩn đang nổi lên và yêu cầu pháp lý. Chuẩn bị cho các yêu cầu công bố ngày càng tăng khi kế toán carbon AI trưởng thành.
Mệnh lệnh trách nhiệm giải trình
Goldman Sachs Research ước tính 60% nhu cầu điện trung tâm dữ liệu tăng sẽ đến từ đốt nhiên liệu hóa thạch, tăng phát thải carbon toàn cầu khoảng 220 triệu tấn.[^22] Quỹ đạo phát thải làm cho kế toán carbon trở nên thiết yếu thay vì tùy chọn đối với các tổ chức AI.
Các tổ chức thiết lập kế toán carbon mạnh mẽ ngay bây giờ chuẩn bị cho các yêu cầu pháp lý đồng thời xác định cơ hội hiệu quả giảm cả phát thải và chi phí. Nền tảng đo lường cho phép các chiến lược giảm thiểu mà nếu không sẽ thiếu mục tiêu. Cơ sở hạ tầng AI có nhận thức về carbon đại diện cho cả trách nhiệm môi trường và xuất sắc vận hành.
Những điểm chính
Cho các nhóm bền vững: - Phát thải nhúng NVIDIA H100: 1.312 kg CO2e mỗi baseboard (8 card); bộ nhớ đóng góp 42%, IC 25%, tản nhiệt 18% - AI có thể phát thải 24-44 triệu tấn CO2 hàng năm vào năm 2030—tương đương 5-10 triệu xe ô tô trên đường Hoa Kỳ (Cornell) - TDP GPU tăng 41,5% CAGR (2021-2025); tăng trưởng công suất vượt qua cải tiến hiệu quả
Cho các kiến trúc sư cơ sở hạ tầng: - Máy chủ AI: 23% điện năng trung tâm dữ liệu Hoa Kỳ (2024), dự kiến 70-80% (240-380 TWh) vào năm 2028 - 56% điện năng trung tâm dữ liệu Hoa Kỳ từ nhiên liệu hóa thạch, 16% từ than; tối ưu hóa địa lý rất quan trọng - PUE đo lường hiệu quả cơ sở hạ tầng; CUE liên kết sử dụng năng lượng với cường độ carbon (kg CO2/kWh)
Cho các nhóm vận hành: - eco2AI là gói mã nguồn mở