Affrontement entre lois fédérales et étatiques sur l'IA : le décret de Trump crée une crise constitutionnelle sur la gouvernance de l'intelligence artificielle
Trente-huit États ont adopté des législations sur l'IA en 2025, introduisant plus de 1 000 projets de loi relatifs à l'IA dans tous les États et territoires américains.[^1] Le 1er janvier 2026, les plus significatives de ces lois sont entrées en vigueur.[^2] Huit jours plus tard, un groupe de travail du ministère de la Justice commencera à les contester devant les tribunaux fédéraux.[^3]
En bref
Le décret du 11 décembre 2025 du président Trump intitulé « Assurer un cadre politique national pour l'intelligence artificielle » déclenche une collision entre le gouvernement fédéral et les États sur la gouvernance de l'IA. Le décret établit un groupe de travail contentieux du DOJ lancé le 10 janvier pour contester les lois étatiques sur des bases constitutionnelles, menace 42 milliards de dollars de financement d'infrastructure haut débit, et exige une évaluation par le ministère du Commerce des réglementations étatiques « contraignantes » d'ici le 11 mars. Les exigences de transparence de la Californie pour les développeurs d'IA de pointe (SB 53), les règles de gouvernance responsable de l'IA du Texas (TRAIGA) et les protections contre la discrimination algorithmique du Colorado (SB 24-205) font toutes face à des contestations juridiques potentielles. Les entreprises déployant des systèmes d'IA naviguent désormais entre des exigences de conformité doubles tandis que les tribunaux déterminent quelles lois survivront. L'affrontement constitutionnel pourrait finalement atteindre la Cour suprême.
Le vide réglementaire que les États se sont empressés de combler
Les États-Unis n'ont pas de législation fédérale complète réglementant le développement de l'IA ou restreignant explicitement son utilisation.[^4] Contrairement à l'approche structurée de l'Union européenne sous l'EU AI Act, la gouvernance américaine de l'IA a émergé à travers un patchwork de directives des agences fédérales et d'initiatives au niveau des États.[^5]
L'action fédérale s'est limitée à des cadres volontaires. En janvier 2023, le National Institute of Standards and Technology a publié l'AI Risk Management Framework (AI RMF 1.0), fournissant des orientations non contraignantes pour les organisations.[^6] Le décret du président Biden d'octobre 2023 sur une intelligence artificielle sûre, sécurisée et digne de confiance a établi des exigences de rapport et des protocoles de tests de sécurité mais manquait de mécanismes d'application.[^7]
Les États ont agi de manière décisive pour combler le vide. L'activité législative s'est considérablement accélérée :
| Année | Projets de loi IA introduits | Lois adoptées | Développements notables |
|---|---|---|---|
| 2023 | 40+ | 2 (CT, TX) | NYC Local Law 144 sur le recrutement automatisé[^8] |
| 2024 | 700+ | 45 | Colorado AI Act signé, CA SB 1047 rejeté[^9] |
| 2025 | 1 000+ | 186 | CA SB 53, TX TRAIGA, 38 États avec des lois IA[^10] |
À la fin de 2025, les législatures des États avaient créé le cadre réglementaire de facto pour l'IA en Amérique.[^11]
Ce que dit réellement le décret
Le président Trump a signé le décret le 11 décembre 2025, proposant une préemption fédérale des lois étatiques sur l'IA jugées incompatibles avec la politique nationale.[^12] Le décret, intitulé « Assurer un cadre politique national pour l'intelligence artificielle », établit plusieurs mécanismes d'application.[^13]
Groupe de travail contentieux du DOJ sur l'IA
Le procureur général doit établir un « groupe de travail contentieux sur l'IA » au sein du ministère de la Justice.[^14] Le groupe de travail a un mandat spécifique : contester les lois étatiques sur l'IA au motif de réglementation inconstitutionnelle du commerce interétatique et de violations de la préemption fédérale.[^15]
À partir du 10 janvier 2026, les avocats du DOJ identifieront et poursuivront des actions en justice contre les réglementations étatiques que l'administration considère comme excessives.[^16] Le groupe de travail représente le premier effort fédéral dédié à contester systématiquement la réglementation technologique des États par voie contentieuse.
Évaluation du ministère du Commerce
Le secrétaire au Commerce Howard Lutnick doit publier une évaluation d'ici le 11 mars 2026 identifiant les lois étatiques qui « méritent un renvoi » au groupe de travail contentieux.[^17] L'évaluation déterminera quelles réglementations créent des exigences de conformité « contraignantes » pour les développeurs et déployeurs d'IA.
Déclaration de politique de la FTC
La Federal Trade Commission doit émettre une déclaration de politique sur la préemption de l'IA d'ici le 11 mars 2026.[^18] La déclaration exposera la position de la commission sur l'autorité fédérale versus étatique en matière de protection des consommateurs d'IA.
Levier financier
Le décret déploie un levier financier significatif : 42 milliards de dollars de financement d'infrastructure haut débit précédemment alloués deviennent conditionnels à l'abrogation par les États des réglementations sur l'IA que l'administration juge « onéreuses ».[^19] Le financement a été affecté en vertu de l'Infrastructure Investment and Jobs Act pour l'expansion du haut débit rural.
Exceptions
Le décret exempte certaines protections de la préemption. Les réglementations couvrant la sécurité des enfants, l'infrastructure de calcul IA et de centres de données, et les achats publics des États restent intactes.[^20] Les États conservent l'autorité de réglementer les systèmes d'IA utilisés dans leurs propres opérations gouvernementales.
Californie : épicentre de la bataille juridique
La Californie a adopté 17 projets de loi liés à l'IA rien qu'en 2024, ce qui en fait la législature étatique la plus active sur la gouvernance de l'IA.[^21] Le gouverneur Gavin Newsom a mis son veto au projet de loi complet SB 1047 en septembre 2024, mais a signé plusieurs projets de loi ciblés qui sont entrés en vigueur le 1er janvier 2026.[^22]
SB 53 : Loi sur la transparence de l'intelligence artificielle de pointe
La SB 53 représente le premier cadre juridique national ciblant spécifiquement les développeurs d'IA de pointe.[^23] Le gouverneur Newsom a signé le projet de loi le 29 septembre 2025.[^24]
Qui est concerné : La loi s'applique aux développeurs de modèles d'IA entraînés sur une puissance de calcul dépassant 10^26 FLOPs (opérations en virgule flottante).[^25] Le seuil reflète le décret sur l'IA de l'administration Biden de 2023 et dépasse le seuil de 10^25 FLOP de l'EU AI Act.[^26]
Les grands développeurs d'IA de pointe avec un chiffre d'affaires annuel dépassant 500 millions de dollars font face à des exigences supplémentaires.[^27] La couverture s'étend à toute entité mettant des modèles à disposition des utilisateurs californiens, quel que soit le siège de l'entreprise.[^28]
Exigences clés :
| Exigence | Détails | Échéance |
|---|---|---|
| Rapports de transparence | Publier sur le site web avant ou au lancement du modèle[^29] | 1er janvier 2026 |
| Cadre d'IA de pointe | Documenter l'évaluation et les mesures d'atténuation des risques[^30] | 1er janvier 2026 |
| Divulgation des risques catastrophiques | Évaluer les risques causant 50+ blessures ou 1 Md$+ de dommages[^31] | 1er janvier 2026 |
| Signalement des incidents de sécurité | Signaler les incidents à l'Office of Emergency Services[^32] | 1er janvier 2026 |
| Protections des lanceurs d'alerte | Protéger les employés signalant des préoccupations de sécurité[^33] | 1er janvier 2026 |
| Consortium CalCompute | Concevoir un cloud public d'État pour la recherche en IA[^34] | Rapport dû le 1er janvier 2027 |
Sanctions : Les développeurs non conformes s'exposent à des sanctions civiles jusqu'à 1 million de dollars par violation, appliquées par le procureur général de Californie.[^35]
Autres lois californiennes sur l'IA en vigueur en janvier 2026
| Projet de loi | Focus | Exigence clé |
|---|---|---|
| AB 2023 | Données d'entraînement | Résumés de haut niveau des sources de données d'entraînement requis[^36] |
| SB 942 | Détection de contenu | Les systèmes d'IA avec 1M+ d'utilisateurs mensuels doivent implémenter la divulgation de contenu[^37] |
| SB 243 | Sécurité des chatbots | Les chatbots compagnons doivent inclure des précautions de sécurité pour les mineurs[^38] |
| AB 325 | Fixation des prix | Restrictions sur la fixation algorithmique des prix[^39] |
| AB 489 | Santé | Exigences de divulgation de l'IA dans les contextes de santé[^40] |
Texas et Colorado : approches différentes, même cible fédérale
Texas Responsible AI Governance Act (TRAIGA)
Le gouverneur Greg Abbott a signé TRAIGA le 22 juin 2025, établissant un cadre plus étroit que le projet de loi initial.[^41] L'ébauche initiale de décembre 2024 reflétait le Colorado AI Act et l'EU AI Act, mais les législateurs ont considérablement réduit les obligations du secteur privé.[^42]
Qui est concerné : TRAIGA s'applique à toute personne qui promeut ou mène des affaires au Texas, produit des produits que les résidents du Texas utilisent, ou développe ou déploie des systèmes d'IA au Texas.[^43]
Dispositions clés :
| Domaine | Exigence |
|---|---|
| Discrimination | Interdit l'utilisation de l'IA avec l'intention spécifique de discriminer ; l'impact disparate seul est insuffisant[^44] |
| Données biométriques | Les agences gouvernementales ne peuvent pas utiliser l'IA pour identifier des individus par des données biométriques sans consentement[^45] |
| IA gouvernementale | Établit le Texas Artificial Intelligence Council et un programme de bac à sable réglementaire[^46] |
| Santé | Les praticiens agréés peuvent utiliser l'IA pour le diagnostic s'ils examinent tous les dossiers générés par l'IA[^47] |
La loi entre en vigueur le 1er janvier 2026.[^48] Contrairement à l'approche globale du Colorado, le Texas s'est concentré principalement sur les cas d'utilisation gouvernementale tout en créant un cadre de responsabilité basé sur l'intention pour les plaintes de discrimination du secteur privé.[^49]
Colorado Artificial Intelligence Act (SB 24-205)
La loi du Colorado, signée le 17 mai 2024, représente le statut de protection des consommateurs spécifique à l'IA le plus détaillé du pays.[^50] La date de mise en œuvre a été reportée du 1er février 2026 au 30 juin 2026, anticipant probablement une résistance fédérale.[^51]
Qui est concerné : La loi s'applique aux « développeurs » (ceux qui construisent l'IA) et aux « déployeurs » (ceux qui utilisent l'IA dans des décisions conséquentes).[^52]
Exigences clés pour les développeurs : - Fournir une documentation extensive aux déployeurs incluant l'objectif, les risques et les résumés de données[^53] - Maintenir un site web public résumant les systèmes à haut risque et la gestion des risques de discrimination[^54] - Divulguer les risques connus de discrimination algorithmique au procureur général dans les 90 jours suivant la découverte[^55]
Exigences clés pour les déployeurs : - Mener et documenter des évaluations d'impact avant le déploiement, annuellement, et dans les 90 jours suivant des modifications substantielles[^56] - Notifier les consommateurs lorsque l'IA à haut risque prend des décisions conséquentes[^57] - Offrir la possibilité de corriger les données personnelles incorrectes et de faire appel des décisions via un examen humain[^58]
La discrimination algorithmique est définie comme toute condition où un système d'IA entraîne un traitement différentiel illégal basé sur des caractéristiques protégées incluant l'âge, la race et le handicap.[^59]
Application : Le procureur général du Colorado a l'autorité exclusive d'application ; les violations constituent des pratiques commerciales déloyales.[^60]
La question constitutionnelle : le président peut-il préempter la loi des États ?
Le fondement juridique du décret fait face à des défis significatifs. Les spécialistes du droit constitutionnel notent que la Cour suprême a constamment jugé que seul le Congrès peut préempter la loi des États en vertu de l'Article I de la Constitution.[^61]
Arguments de la Dormant Commerce Clause
L'administration soutient que la réglementation de l'IA État par État crée un patchwork de 50 régimes réglementaires différents rendant la conformité inutilement complexe.[^62] Les lois étatiques réglementent parfois des conduites au-delà de leurs frontières, empiétant potentiellement sur le commerce interétatique.[^63]
Les réglementations étatiques sur l'IA ont souvent des effets extraterritoriaux. D'un point de vue constitutionnel, de telles réglementations pourraient être vulnérables à des contestations basées sur la Dormant Commerce Clause, car elles représentent le type de balkanisation réglementaire que la Commerce Clause était conçue pour prévenir.[^64]
Cependant, la Cour suprême a constamment rejeté les arguments selon lesquels les lois étatiques affectant simplement le commerce hors de l'État sont inconstitutionnelles.[^65] Une loi étatique qui imposerait des exigences contraignantes aux développeurs hors de l'État tout en exemptant les développeurs de l'État violerait probablement la Dormant Commerce Clause, mais les exigences de conformité neutres appliquées également à tous les développeurs font face à un seuil plus élevé pour une contestation constitutionnelle.[^66]
Précédents historiques
Les partisans des contestations basées sur la Dormant Commerce Clause des lois étatiques sur l'IA citent souvent Pike v. Bruce Church (1970) comme leur précédent préféré, tandis que les sceptiques pointent vers la décision plus récente National Pork Producers Council v. Ross (2023).[^67]
Le Commercial Space Launch Amendments Act de 2004 fournit un précédent législatif pertinent. Le Congrès a mis en œuvre une période d'apprentissage réglementaire restreignant la FAA de promulguer de nouvelles réglementations de sécurité pour les opérations de vol spatial commercial.[^68] Le moratoire était conçu pour empêcher l'incertitude réglementaire d'étouffer une industrie na
[Contenu tronqué pour la traduction]