CO2-boekhouding voor AI-workloads: Het meten en rapporteren van GPU-emissies
Bijgewerkt op 11 december 2025
Update december 2025: NVIDIA publiceert H100 PCF van 1.312 kg CO2e per 8-kaart baseboard (164 kg/kaart). Cornell-studie projecteert 24-44 miljoen metrische ton jaarlijkse AI CO2 tegen 2030. Amazon-emissies stijgen naar 68,25 miljoen metrische ton in 2024, eerste stijging sinds 2021. AI-servers zullen naar verwachting 70-80% van de Amerikaanse datacenter-elektriciteit verbruiken (240-380 TWh) tegen 2028.
NVIDIA publiceerde de Product Carbon Footprint voor H100 baseboard met acht H100 SXM-kaarten, waarbij de ingebedde emissies worden geschat op 1.312 kg CO2e—ongeveer 164 kg CO2e per kaart.[^1] Geheugen draagt 42% bij aan de ingebedde voetafdruk, geïntegreerde circuits dragen 25% bij, en thermische componenten dragen 18% bij. De publicatie vertegenwoordigt de eerste leveranciersgebaseerde beoordeling die transparantie biedt in de milieueffecten van GPU's, en legt een basislijn vast voor organisaties die AI-infrastructuuremissies bijhouden.
De inzet voor AI-CO2-boekhouding groeit met elke implementatie. Een Cornell-studie ontdekte dat tegen 2030 de huidige AI-groeipercentages jaarlijks 24 tot 44 miljoen metrische ton CO2 zouden uitstoten—equivalent aan het toevoegen van 5 tot 10 miljoen auto's aan Amerikaanse wegen.[^2] Amazon rapporteerde dat de emissies stegen van 64,38 miljoen metrische ton in 2023 naar 68,25 miljoen metrische ton in 2024, de eerste stijging van het bedrijf sinds 2021, voornamelijk gedreven door datacenters en bezorgactiviteiten.[^3] De broeikasgasemissies van Google in 2023 stegen met 13% ten opzichte van het voorgaande jaar te midden van de AI-race.[^4] Organisaties die AI-infrastructuur implementeren hebben CO2-boekhoudpraktijken nodig die impact meten en reductiemogelijkheden identificeren.
De componenten van de AI-CO2-voetafdruk begrijpen
De CO2-voetafdruk van AI bestaat uit twee hoofdcomponenten: ingebedde emissies van de productie van IT-apparatuur en de bouw van datacenters, en operationele emissies van elektriciteitsverbruik tijdens AI-gerelateerde berekeningen.[^5] Uitgebreide CO2-boekhouding moet beide categorieën aanpakken.
Ingebedde emissies
Ingebedde emissies treden op voordat AI-systemen een enkel token verwerken. Het produceren van GPU's vereist energie-intensieve halfgeleiderfabricage, winning van zeldzame aardmetalen en transport via wereldwijde toeleveringsketens. De H100 PCF-uitsplitsing van NVIDIA toont de gedistribueerde aard van ingebedde CO2 over geheugen-, verwerkings- en koelcomponenten.[^6]
Datacenterbouw voegt ingebedde emissies toe van beton, staal en mechanische systemen. Een hyperscale datacenter bevat miljoenen tonnen CO2e voordat het operationeel wordt. De bouwemissies worden afgeschreven over de levensduur van de faciliteit, maar AI-implementaties met hoge dichtheid kunnen frequentere infrastructuurvernieuwing vereisen dan traditionele computing.
Operationele emissies
Operationele emissies hangen af van rekenintensiteit en CO2-intensiteit van elektriciteit. AI-servers verbruikten 23% van de totale Amerikaanse datacenter-elektriciteit in 2024 en zullen 70-80% (240-380 TWh jaarlijks) verbruiken tegen 2028 volgens het 2024 U.S. Data Center Energy Usage Report.[^7]
De CO2-intensiteit van die elektriciteit varieert dramatisch per locatie en tijd. Een GPU die 700W verbruikt in een kolengestookt elektriciteitsnet produceert veel meer emissies dan identieke hardware in een faciliteit met hernieuwbare energie. Ongeveer 56% van de elektriciteit die wordt verbruikt door Amerikaanse datacenters kwam van fossiele brandstofcentrales, waarvan 16% van steenkool.[^8] Geografische en temporele optimalisatie van AI-workloads biedt substantiële mogelijkheden voor emissiereductie.
Meetwaarden en standaarden
CO2-boekhouding voor AI vereist gestandaardiseerde meetwaarden die vergelijking tussen organisaties mogelijk maken en verificatie van reductieclaims.
Gevestigde datacentermetrieken
Power Usage Effectiveness (PUE) meet de efficiëntie van datacenterinfrastructuur door het totale faciliteitsvermogen te vergelijken met het IT-apparatuurvermogen.[^9] Een PUE van 1,5 betekent dat 50% van het vermogen naar koeling en overhead gaat. Moderne datacenters streven naar een PUE onder 1,2.
Data Center Infrastructure Efficiency (DCIE) keert PUE om en drukt IT-vermogen uit als een percentage van het totale vermogen. Beide metrieken helpen bij het optimaliseren van infrastructuur maar meten niet direct CO2-emissies.
Carbon Usage Effectiveness (CUE) koppelt energieverbruik aan CO2-emissies (kg CO2 per kWh), rekening houdend met de elektriciteitsbron.[^10] CUE vangt de CO2-intensiteitsdimensie op die PUE mist.
Energy Reuse Factor (ERF) kwantificeert hergebruik van restwarmte en crediteert faciliteiten die warmte leveren aan externe afnemers.[^11] Stadsverwarmingsregelingen waarbij datacenterwarmte gebouwen verwarmt, verminderen de netto-emissies.
AI-specifieke meetuitdagingen
GPU TDP is gemiddeld met 41,5% per jaar (samengesteld) gestegen van 2021 tot 2025.[^12] De vermogenstoename overtreft efficiëntieverbeteringen, wat betekent dat volgende generatie GPU's meer energie verbruiken, zelfs als ze meer tokens per watt verwerken.
Training versus inferentie-emissies vereisen gescheiden boekhouding. Een trainingsrun die maanden GPU-tijd verbruikt op duizenden accelerators genereert substantiële eenmalige emissies. Inferentie-emissies accumuleren naarmate gebruikers het getrainde model bevragen gedurende de operationele levensduur. Organisaties moeten beide fasen bijhouden.
Tracking- en rapportagetools
Verschillende tools en frameworks ondersteunen AI-CO2-boekhouding.
eco2AI
Het eco2AI open-source pakket helpt datawetenschappers het energieverbruik en equivalente CO2-emissies van machine learning-modellen bij te houden.[^13] De tool richt zich op nauwkeurige energietracking en regionale CO2-emissieboekhouding, waarbij rekentijd wordt omgezet in CO2-impact op basis van de CO2-intensiteit van het elektriciteitsnet.
Onderzoekers integreren eco2AI in trainingspipelines om emissieschattingen over experimenten te accumuleren. De aanpak brengt CO2-kosten aan het licht naast nauwkeurigheidsmetrieken, wat CO2-bewuste modelontwikkelingsbeslissingen mogelijk maakt.
Regelgevende kaders
Begin 2024 introduceerden wetgevers de Artificial Intelligence Environmental Impacts Act, die de EPA opdraagt de milieuvoetafdruk van AI te bestuderen en meetstandaarden te ontwikkelen via NIST.[^14] Het voorgestelde vrijwillige rapportagesysteem zou standaardiseren hoe organisaties AI-emissies openbaar maken.
De EU AI Act stelt gegevensbeheereisen vast die de duurzaamheidsrapportage van AI beïnvloeden. Organisaties die AI-systemen met een hoog risico implementeren, kunnen te maken krijgen met openbaarmakingsvereisten inclusief milieueffecten. De regelgevende trajectorie suggereert dat verplichte rapportage vrijwillige kaders zal volgen.
Reductiestrategieën
Cornell-onderzoekers concludeerden dat er "geen wondermiddel" is voor AI-emissiereductie.[^15] Locatiekeuze, netdecarbonisatie en efficiënte operaties werken samen om reducties van ongeveer 73% voor CO2 en 86% voor water te bereiken. Effectieve strategieën combineren meerdere benaderingen.
Geografische optimalisatie
De locatie van het datacenter bepaalt de basis-CO2-intensiteit. Faciliteiten in regio's met veel hernieuwbare energie in het elektriciteitsnet produceren minder emissies dan identieke faciliteiten in fossiel-afhankelijke regio's. Virginia herbergt meer Amerikaanse datacenters (301) dan enige andere staat, gevolgd door Californië (248) en Texas (221).[^16] Elke staat biedt verschillende CO2-profielen voor het elektriciteitsnet.
Organisaties met workload-flexibiliteit kunnen taken routeren naar locaties met lagere CO2-uitstoot. Trainingsruns die latentie tolereren kunnen verschuiven naar tijden en plaatsen waar hernieuwbare energieopwekking piekt. De optimalisatie vereist CO2-bewuste planningscapaciteiten.
Operationele efficiëntie
Efficiënte operaties verminderen het energieverbruik ongeacht de CO2-intensiteit van het elektriciteitsnet. Schneider Electric werkte samen met NVIDIA om referentiearchitecturen te ontwerpen die het koelenergieverbruik met bijna 20% verminderen.[^17] Vergelijkbare efficiëntieverbeteringen in stroomverdeling, koeling en rekenbenutting stapelen zich op tot significante emissiereducties.
AI-workloadoptimalisatie vermindert de rekenvereisten voor equivalente output. Modeldistillatie, kwantisatie en efficiënte inferentie-frameworks zoals NVIDIA NIM verminderen de energie per inferentie. Efficiëntieverbeteringen op workloadniveau vermenigvuldigen zich over miljoenen inferentieverzoeken.
Aanschaf van hernieuwbare energie
Directe aanschaf van hernieuwbare energie via stroomafnameovereenkomsten zorgt voor schone elektriciteit voor AI-operaties. Organisaties kunnen 24/7 koolstofvrije energie aanschaffen die het verbruik per uur matcht in plaats van jaarlijks, waardoor resterend fossiel verbruik tijdens periodes van lage hernieuwbare opwekking wordt geëlimineerd.
On-site opwekking met zonnepanelen en batterijopslag levert hernieuwbare energie zonder transmissieverliezen. Datacentercampussen in regio's met veel zonlicht kunnen substantiële delen van hun verbruik lokaal opwekken.
Implementatie van CO2-boekhouding
Organisaties die AI-CO2-boekhouding implementeren moeten basismetingen vaststellen, tracking integreren in operaties en reductieroutes ontwikkelen.
Vaststelling van de basislijn
Inventariseer bestaande AI-infrastructuur inclusief GPU-aantallen, vermogensspecificaties en gebruikspatronen. Documenteer datacenterlocaties en elektriciteitsbronnen. Bereken huidige operationele emissies met behulp van gemeten stroomverbruik en regionale CO2-intensiteitsfactoren.
Schat ingebedde emissies met behulp van leverancierspublicaties zoals NVIDIA's H100 PCF en branchegemiddelden voor niet-vermelde componenten. Schrijf ingebedde emissies af over de verwachte levensduur van apparatuur, doorgaans 3-5 jaar voor accelerators.
Operationele integratie
Integreer emissietracking in infrastructuurmonitoring. GPU-monitoringtools zoals NVIDIA DCGM leveren stroomverbruiksgegevens. Combineer vermogenstelemetrie met CO2-intensiteit-API's die realtime CO2-informatie van het elektriciteitsnet bieden.
Het netwerk van 550 veldingenieurs van Introl ondersteunt organisaties bij het implementeren van duurzaamheidsgerichte GPU-infrastructuurmonitoring.[^18] Het bedrijf eindigde op #14 in de 2025 Inc. 5000 met 9.594% driejarige groei, wat de vraag naar professionele infrastructuurdiensten weerspiegelt.[^19]
Het uitrollen van monitoring over 257 wereldwijde locaties vereist consistente praktijken die vergelijkbare CO2-boekhouding over faciliteiten mogelijk maken.[^20] Introl beheert implementaties tot 100.000 GPU's met meer dan 40.000 mijl glasvezelnetwerkinfrastructuur, wat operationele schaal biedt voor uitgebreide emissietracking.[^21]
Reductieroutes
Stel emissiereductiedoelen vast die zijn afgestemd op wetenschappelijk onderbouwde doelen en organisatorische toezeggingen. Identificeer reductiemogelijkheden in efficiëntie, aanschaf van hernieuwbare energie en geografische optimalisatie. Prioriteer acties op emisie-impact en haalbaarheid van implementatie.
Volg de voortgang ten opzichte van basislijn en doelen. Rapporteer emissies volgens opkomende standaarden en regelgevende vereisten. Bereid je voor op toenemende openbaarmakingsvereisten naarmate AI-CO2-boekhouding volwassener wordt.
De noodzaak van verantwoordelijkheid
Goldman Sachs Research schat dat 60% van de toenemende vraag naar datacenter-elektriciteit zal komen van het verbranden van fossiele brandstoffen, waardoor de wereldwijde CO2-emissies met ongeveer 220 miljoen ton toenemen.[^22] Het emissietraject maakt CO2-boekhouding essentieel in plaats van optioneel voor AI-organisaties.
Organisaties die nu robuuste CO2-boekhouding opzetten, bereiden zich voor op regelgevende vereisten terwijl ze efficiëntiemogelijkheden identificeren die zowel emissies als kosten verlagen. De meetfundering maakt reductiestrategieën mogelijk die anders geen focus zouden hebben. CO2-bewuste AI-infrastructuur vertegenwoordigt zowel milieuverantwoordelijkheid als operationele excellentie.
Belangrijkste conclusies
Voor duurzaamheidsteams: - NVIDIA H100 ingebedde emissies: 1.312 kg CO2e per baseboard (8 kaarten); geheugen draagt 42% bij, IC's 25%, thermisch 18% - AI zou tegen 2030 jaarlijks 24-44 miljoen metrische ton CO2 kunnen uitstoten—equivalent aan 5-10 miljoen auto's op Amerikaanse wegen (Cornell) - GPU TDP steeg met 41,5% CAGR (2021-2025); vermogensgroei overtreft efficiëntieverbeteringen
Voor infrastructuurarchitecten: - AI-servers: 23% van Amerikaanse datacenter-elektriciteit (2024), geprojecteerd 70-80% (240-380 TWh) tegen 2028 - 56% van Amerikaanse datacenter-elektriciteit van fossiele brandstoffen, 16% van steenkool; geografische optimalisatie cruciaal - PUE meet infrastructuurefficiëntie; CUE koppelt energieverbruik aan CO2-intensiteit (kg CO2/kWh)
Voor operationele teams: - eco2AI open-sou
[Inhoud afgekapt voor vertaling]