Federale vs. Staatsrechtelijke AI-wet Confrontatie: Trumps Executive Order Creëert Constitutionele Crisis over AI-governance
Achtendertig staten hebben in 2025 AI-wetgeving aangenomen, met de introductie van meer dan 1.000 AI-gerelateerde wetsvoorstellen in alle Amerikaanse staten en territoria.[^1] Op 1 januari 2026 traden de belangrijkste van die wetten in werking.[^2] Acht dagen later begint een taskforce van het Ministerie van Justitie met het aanvechten ervan bij de federale rechtbank.[^3]
TL;DR
President Trumps executive order van 11 december 2025 met de titel "Ensuring a National Policy Framework for Artificial Intelligence" ontsteekt een federaal-staatsrechtelijke botsingskoers over AI-governance. Het besluit stelt een DOJ-litigatietaskforce in die op 10 januari van start gaat om staatswetten aan te vechten op constitutionele gronden, bedreigt $42 miljard aan breedband-infrastructuurfinanciering, en eist dat het Ministerie van Handel tegen 11 maart "belastende" staatsreguleringen evalueert. Californië's transparantievereisten voor frontier AI-ontwikkelaars (SB 53), Texas' regels voor verantwoorde AI-governance (TRAIGA), en Colorado's bescherming tegen algoritmische discriminatie (SB 24-205) staan allemaal voor mogelijke juridische aanvechtingen. Ondernemingen die AI-systemen implementeren moeten nu navigeren door dubbele nalevingsvereisten terwijl rechtbanken bepalen welke wetten standhouden. De constitutionele confrontatie kan uiteindelijk het Supreme Court bereiken.
Het Regelgevingsvacuüm dat Staten Haastig Probeerden te Vullen
De Verenigde Staten hebben geen uitgebreide federale wetgeving die AI-ontwikkeling reguleert of het gebruik ervan expliciet beperkt.[^4] In tegenstelling tot de gestructureerde aanpak van de Europese Unie onder de EU AI Act, ontstond Amerikaanse AI-governance door een lappendeken van federale agentschaprichtlijnen en initiatieven op staatsniveau.[^5]
Federale actie bleef beperkt tot vrijwillige kaders. In januari 2023 publiceerde het National Institute of Standards and Technology het AI Risk Management Framework (AI RMF 1.0), met niet-bindende richtlijnen voor organisaties.[^6] President Bidens Executive Order van oktober 2023 over Veilige, Beveiligde en Betrouwbare Kunstmatige Intelligentie stelde rapportagevereisten en veiligheidstestprotocollen vast, maar miste handhavingsmechanismen.[^7]
Staten handelden daadkrachtig om het vacuüm te vullen. De wetgevende activiteit versnelde dramatisch:
| Jaar | AI-wetsvoorstellen Ingediend | Wetten Aangenomen | Opmerkelijke Ontwikkelingen |
|---|---|---|---|
| 2023 | 40+ | 2 (CT, TX) | NYC Local Law 144 over geautomatiseerde werving[^8] |
| 2024 | 700+ | 45 | Colorado AI Act ondertekend, CA SB 1047 geveto'd[^9] |
| 2025 | 1.000+ | 186 | CA SB 53, TX TRAIGA, 38 staten met AI-wetten[^10] |
Tegen het einde van 2025 hadden staatsparlementen het de facto regelgevingskader voor AI in Amerika gecreëerd.[^11]
Wat de Executive Order Daadwerkelijk Zegt
President Trump ondertekende de executive order op 11 december 2025, met het voorstel voor federale voorrang boven staats-AI-wetten die als inconsistent met nationaal beleid worden beschouwd.[^12] Het besluit, getiteld "Ensuring a National Policy Framework for Artificial Intelligence," stelt verschillende handhavingsmechanismen vast.[^13]
DOJ AI-litigatietaskforce
De Attorney General moet een "AI-litigatietaskforce" oprichten binnen het Ministerie van Justitie.[^14] De taskforce heeft een specifiek mandaat: staats-AI-wetten aanvechten op grond van ongrondwettelijke regulering van interstatelijke handel en schendingen van federale voorrang.[^15]
Vanaf 10 januari 2026 zullen DOJ-juristen staatsreguleringen identificeren en juridisch aanvechten die de regering als overreikend beschouwt.[^16] De taskforce vertegenwoordigt de eerste toegewijde federale inspanning om systematisch staatsregulering van technologie aan te vechten via litigatie.
Ministerie van Handel Evaluatie
Minister van Handel Howard Lutnick moet tegen 11 maart 2026 een evaluatie publiceren die staatswetten identificeert die "doorverwijzing verdienen" naar de litigatietaskforce.[^17] De evaluatie zal beoordelen welke regelgeving "belastende" nalevingsvereisten creëert voor AI-ontwikkelaars en -gebruikers.
FTC-beleidsverklaring
De Federal Trade Commission moet tegen 11 maart 2026 een beleidsverklaring over AI-voorrang uitbrengen.[^18] De verklaring zal het standpunt van de commissie over federale versus staatsautoriteit over AI-consumentenbescherming uiteenzetten.
Financiële Hefboom
Het besluit zet een significante financiële hefboom in: $42 miljard aan eerder toegewezen breedband-infrastructuurfinanciering wordt voorwaardelijk gemaakt aan het intrekken door staten van AI-regelgeving die de regering als "onevenredig belastend" beschouwt.[^19] De financiering was toegewezen onder de Infrastructure Investment and Jobs Act voor uitbreiding van breedband op het platteland.
Uitzonderingen
De executive order vrijwaart wel bepaalde beschermingen van voorrang. Regelgeving rond kindveiligheid, AI-compute en datacenter-infrastructuur, en overheidsinkoopbeleid blijven onaangetast.[^20] Staten behouden de autoriteit om AI-systemen te reguleren die worden gebruikt in hun eigen overheidsoperaties.
Californië: Ground Zero voor de Juridische Strijd
Californië nam alleen al in 2024 17 AI-gerelateerde wetsvoorstellen aan, waarmee het de meest actieve staatslegislatuur op het gebied van AI-governance werd.[^21] Gouverneur Gavin Newsom veto'de de uitgebreide SB 1047 in september 2024, maar ondertekende meerdere gerichte wetsvoorstellen die op 1 januari 2026 van kracht werden.[^22]
SB 53: Transparency in Frontier Artificial Intelligence Act
SB 53 vertegenwoordigt het eerste juridische kader in het land dat specifiek gericht is op frontier AI-ontwikkelaars.[^23] Gouverneur Newsom ondertekende het wetsvoorstel op 29 september 2025.[^24]
Voor wie het geldt: De wet is van toepassing op ontwikkelaars van AI-modellen die zijn getraind met rekenkracht van meer dan 10^26 FLOPs (floating-point operations).[^25] De drempel weerspiegelt die van de AI Executive Order van de Biden-regering uit 2023 en overschrijdt de 10^25 FLOP-drempel van de EU AI Act.[^26]
Grote frontier-ontwikkelaars met een jaaromzet van meer dan $500 miljoen worden geconfronteerd met aanvullende vereisten.[^27] De dekking strekt zich uit tot elke entiteit die modellen beschikbaar stelt aan Californische gebruikers, ongeacht waar het bedrijf is gevestigd.[^28]
Belangrijkste vereisten:
| Vereiste | Details | Deadline |
|---|---|---|
| Transparantierapporten | Publiceren op website voor of bij modellancering[^29] | 1 januari 2026 |
| Frontier AI-kader | Risicobeoordeling en mitigatiemaatregelen documenteren[^30] | 1 januari 2026 |
| Catastrofaal risico-openbaarmaking | Risico's beoordelen die 50+ verwondingen of $1B+ schade veroorzaken[^31] | 1 januari 2026 |
| Veiligheidsincident-rapportage | Incidenten rapporteren aan Office of Emergency Services[^32] | 1 januari 2026 |
| Klokkenluiderbescherming | Werknemers beschermen die veiligheidszorgen melden[^33] | 1 januari 2026 |
| CalCompute-consortium | Staatscloud voor AI-onderzoek ontwerpen[^34] | Rapport verwacht 1 januari 2027 |
Boetes: Ontwikkelaars die niet voldoen riskeren civiele boetes tot $1 miljoen per overtreding, gehandhaafd door de California Attorney General.[^35]
Aanvullende Californische AI-wetten Geldig per Januari 2026
| Wet | Focus | Belangrijkste Vereiste |
|---|---|---|
| AB 2023 | Trainingsdata | Samenvattingen op hoog niveau van trainingsdatabronnen vereist[^36] |
| SB 942 | Contentdetectie | AI-systemen met 1M+ maandelijkse gebruikers moeten contentopenbaarmaking implementeren[^37] |
| SB 243 | Chatbotveiligheid | Companion-chatbots moeten veiligheidsmaatregelen voor minderjarigen bevatten[^38] |
| AB 325 | Prijsafspraken | Beperkingen op algoritmische prijsafspraken[^39] |
| AB 489 | Gezondheidszorg | AI-openbaarmakingsvereisten voor gezondheidszorgcontexten[^40] |
Texas en Colorado: Verschillende Benaderingen, Hetzelfde Federale Doelwit
Texas Responsible AI Governance Act (TRAIGA)
Gouverneur Greg Abbott ondertekende TRAIGA op 22 juni 2025, waarmee een smaller kader werd vastgesteld dan het oorspronkelijke wetsvoorstel voorstelde.[^41] Het oorspronkelijke ontwerp van december 2024 weerspiegelde de Colorado AI Act en EU AI Act, maar wetgevers schaalde de verplichtingen voor de private sector aanzienlijk terug.[^42]
Voor wie het geldt: TRAIGA is van toepassing op elke persoon die zaken promoot of doet in Texas, producten produceert die inwoners van Texas gebruiken, of AI-systemen ontwikkelt of implementeert in Texas.[^43]
Belangrijkste bepalingen:
| Gebied | Vereiste |
|---|---|
| Discriminatie | Verbiedt AI-gebruik met specifieke intentie tot discriminatie; ongelijke impact alleen is onvoldoende[^44] |
| Biometrische data | Overheidsinstanties mogen geen AI gebruiken om individuen te identificeren via biometrische gegevens zonder toestemming[^45] |
| Overheids-AI | Stelt Texas Artificial Intelligence Council en regelgevend sandbox-programma in[^46] |
| Gezondheidszorg | Gediplomeerde beroepsbeoefenaars mogen AI gebruiken voor diagnose als zij alle AI-gegenereerde dossiers beoordelen[^47] |
De wet treedt in werking op 1 januari 2026.[^48] Anders dan Colorado's uitgebreide aanpak, richtte Texas zich voornamelijk op overheidsgebruikssituaties terwijl het een op intentie gebaseerd aansprakelijkheidskader creëerde voor discriminatieclaims in de private sector.[^49]
Colorado Artificial Intelligence Act (SB 24-205)
Colorado's wet, ondertekend op 17 mei 2024, vertegenwoordigt het meest gedetailleerde AI-specifieke consumentenbeschermingsstatuut in het land.[^50] De implementatiedatum werd uitgesteld van 1 februari 2026 naar 30 juni 2026, waarschijnlijk in afwachting van federale tegendruk.[^51]
Voor wie het geldt: De wet is van toepassing op "ontwikkelaars" (degenen die AI bouwen) en "gebruikers" (degenen die AI gebruiken bij ingrijpende beslissingen).[^52]
Belangrijkste vereisten voor ontwikkelaars: - Uitgebreide documentatie aan gebruikers verstrekken inclusief doel, risico's en datasamenvatting[^53] - Publieke website bijhouden met samenvatting van hoog-risicosystemen en discriminatierisicobeheer[^54] - Bekende algoritmische discriminatierisico's binnen 90 dagen na ontdekking melden aan Attorney General[^55]
Belangrijkste vereisten voor gebruikers: - Impactbeoordelingen uitvoeren en documenteren vóór implementatie, jaarlijks, en binnen 90 dagen na substantiële wijzigingen[^56] - Consumenten informeren wanneer hoog-risico AI ingrijpende beslissingen neemt[^57] - Mogelijkheid bieden om onjuiste persoonlijke gegevens te corrigeren en beslissingen aan te vechten via menselijke beoordeling[^58]
Algoritmische discriminatie wordt gedefinieerd als elke situatie waarin een AI-systeem resulteert in onwettige ongelijke behandeling op basis van beschermde kenmerken waaronder leeftijd, ras en handicap.[^59]
Handhaving: De Colorado Attorney General heeft exclusieve handhavingsbevoegdheid; overtredingen vormen oneerlijke handelspraktijken.[^60]
De Constitutionele Vraag: Kan de President Staatswetten Vervangen?
De juridische basis van de executive order staat voor aanzienlijke uitdagingen. Constitutionele wetenschappers merken op dat het Supreme Court consequent heeft vastgesteld dat alleen het Congres staatswetten kan vervangen onder Artikel I van de Grondwet.[^61]
Dormant Commerce Clause Argumenten
De regering betoogt dat staat-voor-staat AI-regulering een lappendeken van 50 verschillende regelgevingsregimes creëert waardoor naleving onnodig uitdagend wordt.[^62] Staatswetten reguleren soms gedrag buiten hun grenzen, wat mogelijk inbreuk maakt op interstatelijke handel.[^63]
Staats-AI-regelgeving heeft vaak extraterritoriale effecten. Vanuit constitutioneel perspectief kunnen dergelijke regelgevingen kwetsbaar zijn voor Dormant Commerce Clause-aanvechtingen, aangezien ze het type regelgevingsbalkanisering vertegenwoordigen dat de Commerce Clause was ontworpen om te voorkomen.[^64]
Het Supreme Court heeft echter consequent argumenten verworpen dat staatswetten die alleen handel buiten de staat beïnvloeden ongrondwettelijk zijn.[^65] Een staatswet die belastende vereisten aan ontwikkelaars van buiten de staat oplegde terwijl ontwikkelaars binnen de staat werden vrijgesteld, zou waarschijnlijk de Dormant Commerce Clause schenden, maar neutrale nalevingsvereisten die gelijk aan alle ontwikkelaars worden toegepast, staan voor een hogere drempel voor constitutionele aanvechting.[^66]
Historische Precedenten
Voorstanders van Dormant Commerce Clause-aanvechtingen van staats-AI-wetten citeren vaak Pike v. Bruce Church (1970) als hun voorkeursprecedent, terwijl sceptici wijzen op de recentere National Pork Producers Council v. Ross (2023) beslissing.[^67]
De Commercial Space Launch Amendments Act van 2004 biedt een relevant wetgevend precedent. Het Congres implementeerde een regelgevende leerperiode die de FAA beperkte in het uitvaardigen van nieuwe veiligheidsregels voor commerciële ruimtevaartoperaties.[^68] Het moratorium was ontworpen om te voorkomen dat regelgevingsonzekerheid een opkomende industrie zou verstikken.
[Content truncated for translation]