Bundes- vs. Landes-KI-Recht: Trumps Exekutivverordnung löst Verfassungskrise über KI-Governance aus
Achtunddreißig Bundesstaaten haben 2025 KI-Gesetze verabschiedet und über 1.000 KI-bezogene Gesetzesentwürfe in allen US-Bundesstaaten und -Territorien eingebracht.[^1] Am 1. Januar 2026 traten die bedeutendsten dieser Gesetze in Kraft.[^2] Acht Tage später wird eine Taskforce des Justizministeriums beginnen, diese vor Bundesgerichten anzufechten.[^3]
Zusammenfassung
Präsident Trumps Exekutivverordnung vom 11. Dezember 2025 mit dem Titel „Ensuring a National Policy Framework for Artificial Intelligence" entfacht einen Kollisionskurs zwischen Bund und Ländern über die KI-Governance. Die Verordnung etabliert eine DOJ-Rechtsstreit-Taskforce, die am 10. Januar startet, um staatliche Gesetze aus verfassungsrechtlichen Gründen anzufechten, bedroht 42 Milliarden Dollar an Breitband-Infrastrukturförderung und fordert eine Bewertung „belastender" staatlicher Vorschriften durch das Handelsministerium bis zum 11. März. Kaliforniens Transparenzanforderungen für Entwickler von Frontier-KI (SB 53), Texas' Regeln für verantwortungsvolle KI-Governance (TRAIGA) und Colorados Schutzmaßnahmen gegen algorithmische Diskriminierung (SB 24-205) sehen sich alle potenziellen rechtlichen Anfechtungen gegenüber. Unternehmen, die KI-Systeme einsetzen, navigieren nun zwischen dualen Compliance-Anforderungen, während Gerichte entscheiden, welche Gesetze Bestand haben. Die verfassungsrechtliche Konfrontation könnte letztendlich den Supreme Court erreichen.
Das regulatorische Vakuum, das die Bundesstaaten eilig füllten
Die Vereinigten Staaten haben keine umfassende Bundesgesetzgebung, die die KI-Entwicklung reguliert oder deren Nutzung ausdrücklich einschränkt.[^4] Anders als der strukturierte Ansatz der Europäischen Union unter dem EU AI Act entwickelte sich die amerikanische KI-Governance durch ein Flickwerk aus Bundesbehördenrichtlinien und Initiativen auf Landesebene.[^5]
Bundesinitiativen beschränkten sich auf freiwillige Rahmenwerke. Im Januar 2023 veröffentlichte das National Institute of Standards and Technology das AI Risk Management Framework (AI RMF 1.0), das unverbindliche Leitlinien für Organisationen bereitstellt.[^6] Präsident Bidens Exekutivverordnung zu sicherer, zuverlässiger und vertrauenswürdiger künstlicher Intelligenz vom Oktober 2023 etablierte Meldepflichten und Sicherheitstestprotokolle, verfügte jedoch über keine Durchsetzungsmechanismen.[^7]
Die Bundesstaaten handelten entschlossen, um das Vakuum zu füllen. Die Gesetzgebungsaktivität beschleunigte sich dramatisch:
| Jahr | Eingebrachte KI-Gesetzentwürfe | Verabschiedete Gesetze | Bemerkenswerte Entwicklungen |
|---|---|---|---|
| 2023 | 40+ | 2 (CT, TX) | NYC Local Law 144 über automatisierte Einstellung[^8] |
| 2024 | 700+ | 45 | Colorado AI Act unterzeichnet, CA SB 1047 abgelehnt[^9] |
| 2025 | 1.000+ | 186 | CA SB 53, TX TRAIGA, 38 Bundesstaaten mit KI-Gesetzen[^10] |
Bis Ende 2025 hatten die Landesparlamente den de facto regulatorischen Rahmen für KI in Amerika geschaffen.[^11]
Was die Exekutivverordnung tatsächlich besagt
Präsident Trump unterzeichnete die Exekutivverordnung am 11. Dezember 2025 und schlug eine Bundesvorrangregelung für staatliche KI-Gesetze vor, die als unvereinbar mit der nationalen Politik angesehen werden.[^12] Die Verordnung mit dem Titel „Ensuring a National Policy Framework for Artificial Intelligence" etabliert mehrere Durchsetzungsmechanismen.[^13]
DOJ KI-Rechtsstreit-Taskforce
Der Generalstaatsanwalt muss eine „KI-Rechtsstreit-Taskforce" innerhalb des Justizministeriums einrichten.[^14] Die Taskforce hat einen spezifischen Auftrag: staatliche KI-Gesetze wegen verfassungswidriger Regulierung des zwischenstaatlichen Handels und Verstößen gegen die Bundesvorrangregelung anzufechten.[^15]
Ab dem 10. Januar 2026 werden DOJ-Anwälte rechtliche Schritte gegen staatliche Vorschriften identifizieren und verfolgen, die die Regierung als übergriffig betrachtet.[^16] Die Taskforce stellt die erste gezielte Bundesinitiative dar, die systematisch staatliche Technologieregulierung durch Rechtsstreit anficht.
Bewertung durch das Handelsministerium
Handelsminister Howard Lutnick muss bis zum 11. März 2026 eine Bewertung veröffentlichen, die staatliche Gesetze identifiziert, die „eine Überweisung" an die Rechtsstreit-Taskforce „verdienen".[^17] Die Bewertung wird prüfen, welche Vorschriften „belastende" Compliance-Anforderungen für KI-Entwickler und -Anwender schaffen.
FTC-Grundsatzerklärung
Die Federal Trade Commission muss bis zum 11. März 2026 eine Grundsatzerklärung zur KI-Vorrangregelung herausgeben.[^18] Die Erklärung wird die Position der Kommission zur Bundes- versus Landeskompetenz beim KI-Verbraucherschutz darlegen.
Finanzielle Druckmittel
Die Verordnung setzt einen bedeutenden finanziellen Hebel ein: 42 Milliarden Dollar an zuvor zugewiesenen Breitband-Infrastrukturmitteln werden davon abhängig gemacht, dass Bundesstaaten KI-Vorschriften aufheben, die die Regierung als „belastend" erachtet.[^19] Die Mittel wurden unter dem Infrastructure Investment and Jobs Act für den Ausbau des ländlichen Breitbands bereitgestellt.
Ausnahmen
Die Exekutivverordnung nimmt bestimmte Schutzmaßnahmen von der Vorrangregelung aus. Vorschriften zum Kinderschutz, zur KI-Rechen- und Rechenzentrumsinfrastruktur sowie zur staatlichen Beschaffung bleiben unangetastet.[^20] Bundesstaaten behalten die Befugnis, KI-Systeme zu regulieren, die in ihren eigenen Regierungsoperationen verwendet werden.
Kalifornien: Epizentrum des Rechtsstreits
Kalifornien verabschiedete allein 2024 17 KI-bezogene Gesetze und machte es damit zum aktivsten Landesparlament in Sachen KI-Governance.[^21] Gouverneur Gavin Newsom legte sein Veto gegen das umfassende SB 1047 im September 2024 ein, unterzeichnete aber mehrere gezielte Gesetze, die am 1. Januar 2026 in Kraft traten.[^22]
SB 53: Transparency in Frontier Artificial Intelligence Act
SB 53 stellt den ersten Rechtsrahmen der Nation dar, der speziell auf Entwickler von Frontier-KI abzielt.[^23] Gouverneur Newsom unterzeichnete das Gesetz am 29. September 2025.[^24]
Wen es betrifft: Das Gesetz gilt für Entwickler von KI-Modellen, die mit einer Rechenleistung von mehr als 10^26 FLOPs (Gleitkommaoperationen) trainiert wurden.[^25] Der Schwellenwert entspricht dem der Biden-Regierung von 2023 in der KI-Exekutivverordnung und überschreitet den Schwellenwert von 10^25 FLOP des EU AI Act.[^26]
Große Frontier-Entwickler mit einem Jahresumsatz von mehr als 500 Millionen Dollar unterliegen zusätzlichen Anforderungen.[^27] Die Abdeckung erstreckt sich auf jede Einheit, die Modelle für kalifornische Nutzer verfügbar macht, unabhängig davon, wo das Unternehmen seinen Hauptsitz hat.[^28]
Wesentliche Anforderungen:
| Anforderung | Details | Frist |
|---|---|---|
| Transparenzberichte | Auf Website vor oder bei Modelleinführung veröffentlichen[^29] | 1. Januar 2026 |
| Frontier-KI-Framework | Risikobewertung und Minderungsmaßnahmen dokumentieren[^30] | 1. Januar 2026 |
| Offenlegung katastrophaler Risiken | Risiken bewerten, die 50+ Verletzungen oder 1 Mrd.+ Dollar Schaden verursachen[^31] | 1. Januar 2026 |
| Meldung von Sicherheitsvorfällen | Vorfälle an Office of Emergency Services melden[^32] | 1. Januar 2026 |
| Whistleblower-Schutz | Mitarbeiter schützen, die Sicherheitsbedenken melden[^33] | 1. Januar 2026 |
| CalCompute-Konsortium | Staatliche Public Cloud für KI-Forschung konzipieren[^34] | Bericht fällig 1. Januar 2027 |
Strafen: Entwickler, die nicht konform sind, drohen zivilrechtliche Strafen von bis zu 1 Million Dollar pro Verstoß, durchgesetzt vom kalifornischen Generalstaatsanwalt.[^35]
Weitere kalifornische KI-Gesetze, die ab Januar 2026 in Kraft treten
| Gesetz | Schwerpunkt | Wesentliche Anforderung |
|---|---|---|
| AB 2023 | Trainingsdaten | Zusammenfassungen auf hoher Ebene über Trainingsdatenquellen erforderlich[^36] |
| SB 942 | Inhaltserkennung | KI-Systeme mit 1 Mio.+ monatlichen Nutzern müssen Inhaltsoffenlegung implementieren[^37] |
| SB 243 | Chatbot-Sicherheit | Begleit-Chatbots müssen Sicherheitsvorkehrungen für Minderjährige enthalten[^38] |
| AB 325 | Preisabsprachen | Einschränkungen bei algorithmischen Preisabsprachen[^39] |
| AB 489 | Gesundheitswesen | KI-Offenlegungspflichten im Gesundheitskontext[^40] |
Texas und Colorado: Unterschiedliche Ansätze, gleiches Bundesziel
Texas Responsible AI Governance Act (TRAIGA)
Gouverneur Greg Abbott unterzeichnete TRAIGA am 22. Juni 2025 und etablierte einen engeren Rahmen als der ursprüngliche Gesetzentwurf vorschlug.[^41] Der erste Entwurf vom Dezember 2024 orientierte sich am Colorado AI Act und EU AI Act, aber die Gesetzgeber reduzierten die Verpflichtungen für den Privatsektor erheblich.[^42]
Wen es betrifft: TRAIGA gilt für jede Person, die in Texas geschäftlich tätig ist oder Geschäfte fördert, Produkte herstellt, die Einwohner von Texas nutzen, oder KI-Systeme in Texas entwickelt oder einsetzt.[^43]
Wesentliche Bestimmungen:
| Bereich | Anforderung |
|---|---|
| Diskriminierung | Verbietet KI-Nutzung mit spezifischer Diskriminierungsabsicht; disparate Auswirkungen allein nicht ausreichend[^44] |
| Biometrische Daten | Regierungsbehörden dürfen KI nicht zur Identifizierung von Personen durch biometrische Daten ohne Zustimmung verwenden[^45] |
| Regierungs-KI | Etabliert Texas Artificial Intelligence Council und regulatorisches Sandbox-Programm[^46] |
| Gesundheitswesen | Zugelassene Fachkräfte dürfen KI für Diagnosen verwenden, wenn sie alle KI-generierten Aufzeichnungen überprüfen[^47] |
Das Gesetz tritt am 1. Januar 2026 in Kraft.[^48] Anders als Colorados umfassender Ansatz konzentrierte sich Texas hauptsächlich auf Anwendungsfälle in der Regierung und schuf einen absichtsbasierten Haftungsrahmen für Diskriminierungsklagen im Privatsektor.[^49]
Colorado Artificial Intelligence Act (SB 24-205)
Colorados Gesetz, unterzeichnet am 17. Mai 2024, stellt das detaillierteste KI-spezifische Verbraucherschutzgesetz der Nation dar.[^50] Das Inkrafttretungsdatum wurde vom 1. Februar 2026 auf den 30. Juni 2026 verschoben, vermutlich in Erwartung von Widerstand auf Bundesebene.[^51]
Wen es betrifft: Das Gesetz gilt für „Entwickler" (diejenigen, die KI bauen) und „Anwender" (diejenigen, die KI bei folgenreichen Entscheidungen einsetzen).[^52]
Wesentliche Anforderungen für Entwickler: - Anwendern umfangreiche Dokumentation bereitstellen, einschließlich Zweck, Risiken und Datenzusammenfassungen[^53] - Öffentliche Website pflegen, die Hochrisikosysteme und Diskriminierungsrisikomanagement zusammenfasst[^54] - Bekannte algorithmische Diskriminierungsrisiken dem Generalstaatsanwalt innerhalb von 90 Tagen nach Entdeckung offenlegen[^55]
Wesentliche Anforderungen für Anwender: - Folgenabschätzungen vor dem Einsatz, jährlich und innerhalb von 90 Tagen nach wesentlichen Änderungen durchführen und dokumentieren[^56] - Verbraucher benachrichtigen, wenn Hochrisiko-KI folgenreiche Entscheidungen trifft[^57] - Möglichkeit bieten, fehlerhafte personenbezogene Daten zu korrigieren und Entscheidungen durch menschliche Überprüfung anzufechten[^58]
Algorithmische Diskriminierung wird definiert als jeder Zustand, bei dem ein KI-System zu rechtswidriger unterschiedlicher Behandlung aufgrund geschützter Merkmale wie Alter, Rasse und Behinderung führt.[^59]
Durchsetzung: Der Generalstaatsanwalt von Colorado hat die ausschließliche Durchsetzungsbefugnis; Verstöße stellen unlautere Geschäftspraktiken dar.[^60]
Die Verfassungsfrage: Kann der Präsident Landesrecht verdrängen?
Die rechtliche Grundlage der Exekutivverordnung steht vor erheblichen Herausforderungen. Verfassungsrechtler weisen darauf hin, dass der Supreme Court durchgängig entschieden hat, dass nur der Kongress gemäß Artikel I der Verfassung Landesrecht verdrängen kann.[^61]
Argumente zur ruhenden Handelsklausel
Die Regierung argumentiert, dass eine bundesstaatsweise KI-Regulierung ein Flickwerk aus 50 verschiedenen Regulierungsregimen schafft, das die Compliance unnötig erschwert.[^62] Landesgesetze regulieren manchmal Verhalten außerhalb ihrer Grenzen, was möglicherweise den zwischenstaatlichen Handel beeinträchtigt.[^63]
Staatliche KI-Vorschriften haben oft extraterritoriale Auswirkungen. Aus verfassungsrechtlicher Perspektive könnten solche Vorschriften anfällig für Anfechtungen nach der ruhenden Handelsklausel sein, da sie die Art von regulatorischer Balkanisierung darstellen, die die Handelsklausel verhindern sollte.[^64]
Der Supreme Court hat jedoch durchgängig Argumente abgelehnt, dass Landesgesetze, die lediglich den außerstaatlichen Handel betreffen, verfassungswidrig seien.[^65] Ein Landesgesetz, das belastende Anforderungen an außerstaatliche Entwickler stellt, während es einheimische Entwickler befreit, würde wahrscheinlich gegen die ruhende Handelsklausel verstoßen, aber neutrale Compliance-Anforderungen, die gleichermaßen für alle Entwickler gelten, haben eine höhere Hürde für verfassungsrechtliche Anfechtungen.[^66]
Historische Präzedenzfälle
Befürworter von Anfechtungen staatlicher KI-Gesetze nach der ruhenden Handelsklausel zitieren oft Pike v. Bruce Church (1970) als bevorzugten Präzedenzfall, während Skeptiker auf die jüngere Entscheidung National Pork Producers Council v. Ross (2023) verweisen.[^67]
Der Commercial Space Launch Amendments Act von 2004 liefert einen relevanten gesetzgeberischen Präzedenzfall. Der Kongress implementierte eine regulatorische Lernphase, die die FAA daran hinderte, neue Sicherheitsvorschriften für kommerzielle Raumfahrtoperationen zu erlassen.[^68] Das Moratorium sollte verhindern, dass regulatorische Unsicherheit eine aufkommende