การเผชิญหน้าระหว่างกฎหมาย AI ของรัฐบาลกลางและรัฐ: คำสั่งฝ่ายบริหารของทรัมป์สร้างวิกฤตรัฐธรรมนูญเรื่องการกำกับดูแล AI
สามสิบแปดรัฐผ่านกฎหมาย AI ในปี 2025 โดยมีการเสนอร่างกฎหมายที่เกี่ยวข้องกับ AI มากกว่า 1,000 ฉบับทั่วทุกรัฐและดินแดนของสหรัฐอเมริกา[^1] ในวันที่ 1 มกราคม 2026 กฎหมายที่สำคัญที่สุดในจำนวนนั้นมีผลบังคับใช้[^2] แปดวันต่อมา คณะทำงานของกระทรวงยุติธรรมจะเริ่มฟ้องร้องกฎหมายเหล่านั้นในศาลของรัฐบาลกลาง[^3]
สรุปย่อ
คำสั่งฝ่ายบริหารของประธานาธิบดีทรัมป์เมื่อวันที่ 11 ธันวาคม 2025 ในหัวข้อ "การรับรองกรอบนโยบายระดับชาติสำหรับปัญญาประดิษฐ์" จุดชนวนการปะทะกันระหว่างรัฐบาลกลางและรัฐในเรื่องการกำกับดูแล AI คำสั่งนี้จัดตั้งคณะทำงานดำเนินคดีของกระทรวงยุติธรรมที่จะเริ่มดำเนินการในวันที่ 10 มกราคม เพื่อฟ้องร้องกฎหมายของรัฐด้วยเหตุผลทางรัฐธรรมนูญ คุกคามเงินทุนโครงสร้างพื้นฐานบรอดแบนด์มูลค่า 42 พันล้านดอลลาร์ และกำหนดให้กระทรวงพาณิชย์ประเมินกฎระเบียบของรัฐที่ "สร้างภาระ" ภายในวันที่ 11 มีนาคม ข้อกำหนดความโปร่งใสสำหรับผู้พัฒนา frontier AI ของแคลิฟอร์เนีย (SB 53) กฎการกำกับดูแล AI อย่างรับผิดชอบของเท็กซัส (TRAIGA) และการคุ้มครองการเลือกปฏิบัติทางอัลกอริทึมของโคโลราโด (SB 24-205) ทั้งหมดอาจถูกฟ้องร้อง องค์กรที่ใช้งานระบบ AI ในปัจจุบันต้องปฏิบัติตามข้อกำหนดสองชุดในขณะที่ศาลตัดสินว่ากฎหมายใดจะยังคงอยู่ การเผชิญหน้าทางรัฐธรรมนูญนี้อาจขึ้นสู่ศาลฎีกาในที่สุด
ช่องว่างทางกฎระเบียบที่รัฐต่างๆ รีบเข้ามาเติมเต็ม
สหรัฐอเมริกาไม่มีกฎหมายของรัฐบาลกลางที่ครอบคลุมในการกำกับดูแลการพัฒนา AI หรือจำกัดการใช้งานอย่างชัดเจน[^4] แตกต่างจากแนวทางที่มีโครงสร้างของสหภาพยุโรปภายใต้ EU AI Act การกำกับดูแล AI ของอเมริกาเกิดขึ้นผ่านแนวทางของหน่วยงานของรัฐบาลกลางและความคิดริเริ่มระดับรัฐที่กระจัดกระจาย[^5]
การดำเนินการของรัฐบาลกลางถูกจำกัดอยู่ที่กรอบการทำงานโดยสมัครใจ ในเดือนมกราคม 2023 สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยแพร่กรอบการจัดการความเสี่ยง AI (AI RMF 1.0) ซึ่งให้แนวทางที่ไม่มีผลผูกพันสำหรับองค์กร[^6] คำสั่งฝ่ายบริหารของประธานาธิบดีไบเดนเมื่อเดือนตุลาคม 2023 เรื่อง AI ที่ปลอดภัย มั่นคง และน่าเชื่อถือ กำหนดข้อกำหนดการรายงานและโปรโตคอลการทดสอบความปลอดภัย แต่ขาดกลไกการบังคับใช้[^7]
รัฐต่างๆ ดำเนินการอย่างเด็ดขาดเพื่อเติมเต็มช่องว่างนี้ กิจกรรมทางกฎหมายเร่งตัวขึ้นอย่างมาก:
| ปี | ร่างกฎหมาย AI ที่เสนอ | กฎหมายที่ประกาศใช้ | การพัฒนาที่สำคัญ |
|---|---|---|---|
| 2023 | 40+ | 2 (CT, TX) | NYC Local Law 144 เรื่องการจ้างงานอัตโนมัติ[^8] |
| 2024 | 700+ | 45 | Colorado AI Act ลงนาม, CA SB 1047 ถูกยับยั้ง[^9] |
| 2025 | 1,000+ | 186 | CA SB 53, TX TRAIGA, 38 รัฐมีกฎหมาย AI[^10] |
ภายในสิ้นปี 2025 สภานิติบัญญัติของรัฐได้สร้างกรอบกฎระเบียบที่เป็นจริงสำหรับ AI ในอเมริกา[^11]
เนื้อหาที่แท้จริงของคำสั่งฝ่ายบริหาร
ประธานาธิบดีทรัมป์ลงนามคำสั่งฝ่ายบริหารเมื่อวันที่ 11 ธันวาคม 2025 โดยเสนอให้กฎหมาย AI ของรัฐที่ถือว่าไม่สอดคล้องกับนโยบายระดับชาติถูกยกเลิกโดยกฎหมายของรัฐบาลกลาง[^12] คำสั่งซึ่งมีชื่อว่า "การรับรองกรอบนโยบายระดับชาติสำหรับปัญญาประดิษฐ์" กำหนดกลไกการบังคับใช้หลายประการ[^13]
คณะทำงานดำเนินคดี AI ของกระทรวงยุติธรรม
อัยการสูงสุดต้องจัดตั้ง "คณะทำงานดำเนินคดี AI" ภายในกระทรวงยุติธรรม[^14] คณะทำงานมีภารกิจเฉพาะ: ฟ้องร้องกฎหมาย AI ของรัฐด้วยเหตุผลว่าเป็นการกำกับดูแลการค้าระหว่างรัฐที่ขัดต่อรัฐธรรมนูญและละเมิดหลักการยกเลิกกฎหมายของรัฐโดยกฎหมายของรัฐบาลกลาง[^15]
ตั้งแต่วันที่ 10 มกราคม 2026 ทนายความของกระทรวงยุติธรรมจะระบุและดำเนินการทางกฎหมายต่อกฎระเบียบของรัฐที่ฝ่ายบริหารถือว่าเกินขอบเขต[^16] คณะทำงานนี้เป็นความพยายามครั้งแรกของรัฐบาลกลางที่ทุ่มเทเพื่อท้าทายกฎระเบียบเทคโนโลยีของรัฐอย่างเป็นระบบผ่านการดำเนินคดี
การประเมินของกระทรวงพาณิชย์
รัฐมนตรีว่าการกระทรวงพาณิชย์ Howard Lutnick ต้องเผยแพร่การประเมินภายในวันที่ 11 มีนาคม 2026 โดยระบุกฎหมายของรัฐที่ "สมควรได้รับการส่งต่อ" ไปยังคณะทำงานดำเนินคดี[^17] การประเมินจะพิจารณาว่ากฎระเบียบใดสร้างข้อกำหนดการปฏิบัติตามที่ "เป็นภาระ" สำหรับผู้พัฒนาและผู้ใช้งาน AI
แถลงการณ์นโยบายของ FTC
คณะกรรมการการค้าแห่งสหพันธรัฐต้องออกแถลงการณ์นโยบายเรื่องการยกเลิกกฎหมายของรัฐโดยกฎหมายของรัฐบาลกลางด้าน AI ภายในวันที่ 11 มีนาคม 2026[^18] แถลงการณ์จะระบุจุดยืนของคณะกรรมการเกี่ยวกับอำนาจของรัฐบาลกลางเทียบกับรัฐในการคุ้มครองผู้บริโภคด้าน AI
การใช้แรงกดดันทางการเงิน
คำสั่งใช้เครื่องมือทางการเงินที่สำคัญ: เงินทุนโครงสร้างพื้นฐานบรอดแบนด์ที่จัดสรรไว้ก่อนหน้านี้มูลค่า 42 พันล้านดอลลาร์มีเงื่อนไขว่ารัฐต้องยกเลิกกฎระเบียบ AI ที่ฝ่ายบริหารถือว่า "สร้างภาระมาก"[^19] เงินทุนนี้ถูกจัดสรรภายใต้กฎหมายการลงทุนโครงสร้างพื้นฐานและการจ้างงานเพื่อการขยายบรอดแบนด์ในชนบท
ข้อยกเว้น
คำสั่งฝ่ายบริหารยกเว้นการคุ้มครองบางประการจากการถูกยกเลิก กฎระเบียบที่ครอบคลุมความปลอดภัยของเด็ก โครงสร้างพื้นฐานการประมวลผล AI และศูนย์ข้อมูล และการจัดซื้อจัดจ้างของรัฐบาลรัฐยังคงไม่ถูกแตะต้อง[^20] รัฐยังคงมีอำนาจในการกำกับดูแลระบบ AI ที่ใช้ในการดำเนินงานของรัฐบาลของตนเอง
แคลิฟอร์เนีย: ศูนย์กลางของการต่อสู้ทางกฎหมาย
แคลิฟอร์เนียผ่านร่างกฎหมายที่เกี่ยวข้องกับ AI 17 ฉบับในปี 2024 เพียงปีเดียว ทำให้เป็นสภานิติบัญญัติของรัฐที่มีความเคลื่อนไหวมากที่สุดในการกำกับดูแล AI[^21] ผู้ว่าการ Gavin Newsom ยับยั้ง SB 1047 ที่ครอบคลุมในเดือนกันยายน 2024 แต่ลงนามร่างกฎหมายเฉพาะเจาะจงหลายฉบับที่มีผลบังคับใช้ในวันที่ 1 มกราคม 2026[^22]
SB 53: กฎหมายความโปร่งใสใน Frontier Artificial Intelligence
SB 53 เป็นกรอบกฎหมายแรกของประเทศที่มุ่งเป้าไปที่ผู้พัฒนา frontier AI โดยเฉพาะ[^23] ผู้ว่าการ Newsom ลงนามร่างกฎหมายเมื่อวันที่ 29 กันยายน 2025[^24]
ผู้ที่อยู่ภายใต้กฎหมาย: กฎหมายใช้กับผู้พัฒนาโมเดล AI ที่ฝึกด้วยพลังการประมวลผลที่เกิน 10^26 FLOPs (floating-point operations)[^25] เกณฑ์นี้สะท้อนคำสั่งฝ่ายบริหารด้าน AI ของรัฐบาลไบเดนปี 2023 และเกินเกณฑ์ 10^25 FLOP ของ EU AI Act[^26]
ผู้พัฒนา frontier รายใหญ่ที่มีรายได้ประจำปีเกิน 500 ล้านดอลลาร์ต้องปฏิบัติตามข้อกำหนดเพิ่มเติม[^27] การครอบคลุมขยายไปถึงหน่วยงานใดก็ตามที่ทำให้โมเดลพร้อมใช้งานสำหรับผู้ใช้ในแคลิฟอร์เนีย ไม่ว่าบริษัทจะมีสำนักงานใหญ่อยู่ที่ใด[^28]
ข้อกำหนดหลัก:
| ข้อกำหนด | รายละเอียด | กำหนดเวลา |
|---|---|---|
| รายงานความโปร่งใส | เผยแพร่บนเว็บไซต์ก่อนหรือตอนเปิดตัวโมเดล[^29] | 1 มกราคม 2026 |
| กรอบการทำงาน frontier AI | บันทึกการประเมินความเสี่ยงและมาตรการบรรเทา[^30] | 1 มกราคม 2026 |
| การเปิดเผยความเสี่ยงภัยพิบัติ | ประเมินความเสี่ยงที่ทำให้เกิดการบาดเจ็บ 50+ รายหรือความเสียหาย 1 พันล้านดอลลาร์ขึ้นไป[^31] | 1 มกราคม 2026 |
| การรายงานเหตุการณ์ด้านความปลอดภัย | รายงานเหตุการณ์ต่อสำนักงานบริการฉุกเฉิน[^32] | 1 มกราคม 2026 |
| การคุ้มครองผู้แจ้งเบาะแส | คุ้มครองพนักงานที่รายงานความกังวลด้านความปลอดภัย[^33] | 1 มกราคม 2026 |
| กลุ่ม CalCompute | ออกแบบ public cloud ของรัฐสำหรับการวิจัย AI[^34] | รายงานครบกำหนด 1 มกราคม 2027 |
บทลงโทษ: ผู้พัฒนาที่ไม่ปฏิบัติตามต้องเผชิญโทษทางแพ่งสูงสุด 1 ล้านดอลลาร์ต่อการละเมิด บังคับใช้โดยอัยการสูงสุดของแคลิฟอร์เนีย[^35]
กฎหมาย AI เพิ่มเติมของแคลิฟอร์เนียที่มีผลบังคับใช้ในเดือนมกราคม 2026
| ร่างกฎหมาย | จุดเน้น | ข้อกำหนดหลัก |
|---|---|---|
| AB 2023 | ข้อมูลการฝึก | ต้องมีสรุประดับสูงของแหล่งข้อมูลการฝึก[^36] |
| SB 942 | การตรวจจับเนื้อหา | ระบบ AI ที่มีผู้ใช้รายเดือน 1 ล้านคนขึ้นไปต้องใช้การเปิดเผยเนื้อหา[^37] |
| SB 243 | ความปลอดภัยของแชทบอท | แชทบอทคู่หูต้องมีมาตรการป้องกันความปลอดภัยสำหรับผู้เยาว์[^38] |
| AB 325 | การกำหนดราคา | ข้อจำกัดการกำหนดราคาผ่านอัลกอริทึม[^39] |
| AB 489 | การดูแลสุขภาพ | ข้อกำหนดการเปิดเผย AI สำหรับบริบทการดูแลสุขภาพ[^40] |
เท็กซัสและโคโลราโด: แนวทางที่แตกต่าง เป้าหมายของรัฐบาลกลางเดียวกัน
Texas Responsible AI Governance Act (TRAIGA)
ผู้ว่าการ Greg Abbott ลงนาม TRAIGA เมื่อวันที่ 22 มิถุนายน 2025 โดยกำหนดกรอบที่แคบกว่าร่างกฎหมายดั้งเดิมที่เสนอ[^41] ร่างเริ่มแรกในเดือนธันวาคม 2024 มีลักษณะคล้ายกับ Colorado AI Act และ EU AI Act แต่ผู้ร่างกฎหมายลดภาระผูกพันของภาคเอกชนลงอย่างมาก[^42]
ผู้ที่อยู่ภายใต้กฎหมาย: TRAIGA ใช้กับบุคคลใดก็ตามที่ส่งเสริมหรือดำเนินธุรกิจในเท็กซัส ผลิตผลิตภัณฑ์ที่ผู้อยู่อาศัยในเท็กซัสใช้ หรือพัฒนาหรือใช้งานระบบ AI ในเท็กซัส[^43]
บทบัญญัติหลัก:
| พื้นที่ | ข้อกำหนด |
|---|---|
| การเลือกปฏิบัติ | ห้ามใช้ AI โดยมีเจตนาเฉพาะเจาะจงในการเลือกปฏิบัติ; ผลกระทบที่แตกต่างเพียงอย่างเดียวไม่เพียงพอ[^44] |
| ข้อมูลไบโอเมตริก | หน่วยงานรัฐบาลไม่สามารถใช้ AI เพื่อระบุตัวบุคคลผ่านข้อมูลไบโอเมตริกโดยไม่ได้รับความยินยอม[^45] |
| AI ของรัฐบาล | จัดตั้งสภาปัญญาประดิษฐ์แห่งเท็กซัสและโปรแกรม regulatory sandbox[^46] |
| การดูแลสุขภาพ | ผู้ประกอบวิชาชีพที่มีใบอนุญาตสามารถใช้ AI สำหรับการวินิจฉัยได้หากพวกเขาตรวจสอบบันทึกที่สร้างโดย AI ทั้งหมด[^47] |
กฎหมายมีผลบังคับใช้ในวันที่ 1 มกราคม 2026[^48] ต่างจากแนวทางที่ครอบคลุมของโคโลราโด เท็กซัสมุ่งเน้นไปที่กรณีการใช้งานของรัฐบาลเป็นหลักในขณะที่สร้างกรอบความรับผิดตามเจตนาสำหรับการเรียกร้องการเลือกปฏิบัติของภาคเอกชน[^49]
Colorado Artificial Intelligence Act (SB 24-205)
กฎหมายของโคโลราโด ลงนามเมื่อวันที่ 17 พฤษภาคม 2024 เป็นกฎหมายคุ้มครองผู้บริโภคเฉพาะ AI ที่มีรายละเอียดมากที่สุดในประเทศ[^50] วันที่บังคับใช้ถูกเลื่อนจากวันที่ 1 กุมภาพันธ์ 2026 เป็นวันที่ 30 มิถุนายน 2026 ซึ่งน่าจะคาดการณ์ถึงการตอบโต้จากรัฐบาลกลาง[^51]
ผู้ที่อยู่ภายใต้กฎหมาย: กฎหมายใช้กับ "ผู้พัฒนา" (ผู้ที่สร้าง AI) และ "ผู้ใช้งาน" (ผู้ที่ใช้ AI ในการตัดสินใจที่มีผลกระทบสำคัญ)[^52]
ข้อกำหนดหลักสำหรับผู้พัฒนา: - จัดเตรียมเอกสารอย่างละเอียดให้ผู้ใช้งาน รวมถึงวัตถุประสงค์ ความเสี่ยง และสรุปข้อมูล[^53] - ดูแลเว็บไซต์สาธารณะที่สรุประบบที่มีความเสี่ยงสูงและการจัดการความเสี่ยงจากการเลือกปฏิบัติ[^54] - เปิดเผยความเสี่ยงจากการเลือกปฏิบัติทางอัลกอริทึมที่ทราบต่ออัยการสูงสุดภายใน 90 วันหลังจากการค้นพบ[^55]
ข้อกำหนดหลักสำหรับผู้ใช้งาน: - ดำเนินการและจัดทำเอกสารการประเมินผลกระทบก่อนการใช้งาน รายปี และภายใน 90 วันหลังจากการปรับเปลี่ยนที่สำคัญ[^56] - แจ้งผู้บริโภคเมื่อ AI ที่มีความเสี่ยงสูงทำการตัดสินใจที่มีผลกระทบสำคัญ[^57] - ให้โอกาสในการแก้ไขข้อมูลส่วนบุคคลที่ไม่ถูกต้องและอุทธรณ์การตัดสินใจผ่านการตรวจสอบโดยมนุษย์[^58]
การเลือกปฏิบัติทางอัลกอริทึม ถูกกำหนดเป็นเงื่อนไขใดก็ตามที่ระบบ AI ส่งผลให้เกิดการปฏิบัติที่แตกต่างกันอย่างผิดกฎหมายตามลักษณะที่ได้รับการคุ้มครอง รวมถึงอายุ เชื้อชาติ และความพิการ[^59]
การบังคับใช้: อัยการสูงสุดของโคโลราโดมีอำนาจบังคับใช้แต่เพียงผู้เดียว; การละเมิดถือเป็นการปฏิบัติทางการค้าที่ไม่เป็นธรรม[^60]
คำถามทางรัฐธรรมนูญ: ประธานาธิบดีสามารถยกเลิกกฎหมายของรัฐได้หรือไม่?
รากฐานทางกฎหมายของคำสั่งฝ่ายบริหารเผชิญกับความท้าทายที่สำคัญ นักวิชาการด้านรัฐธรรมนูญตั้งข้อสังเกตว่าศาลฎีกาได้ตัดสินอย่างสม่ำเสมอว่ามีเพียงรัฐสภาเท่านั้นที่สามารถยกเลิกกฎหมายของรัฐภายใต้มาตรา I ของรัฐธรรมนูญ[^61]
ข้อโต้แย้ง Dormant Commerce Clause
ฝ่ายบริหารโต้แย้งว่าการกำกับดูแล AI ทีละรัฐสร้างกฎระเบียบที่กระจัดกระจายของ 50 ระบบที่แตกต่างกัน ทำให้การปฏิบัติตามมีความท้าทายโดยไม่จำเป็น[^62] กฎหมายของรัฐบางครั้งกำกับดูแลพฤติกรรมนอกเขตแดนของตน ซึ่งอาจกระทบต่อการค้าระหว่างรัฐ[^63]
กฎระเบียบ AI ของรัฐมักมีผลกระทบนอกอาณาเขต จากมุมมองทางรัฐธรรมนูญ กฎระเบียบดังกล่าวอาจเสี่ยงต่อการถูกท้าทายตาม Dormant Commerce Clause เนื่องจากเป็นตัวแทนของการแบ่งแยกกฎระเบียบที่ Commerce Clause ออกแบบมาเพื่อป้องกัน[^64]
อย่างไรก็ตาม ศาลฎีกาได้ปฏิเสธข้อโต้แย้งอย่างสม่ำเสมอว่ากฎหมายของรัฐที่เพียงแค่ส่งผลกระทบต่อการค้านอกรัฐนั้นขัดต่อรัฐธรรมนูญ[^65] กฎหมายของรัฐที่กำหนดข้อกำหนดที่สร้างภาระให้ผู้พัฒนานอกรัฐในขณะที่ยกเว้นผู้พัฒนาในรัฐอาจละเมิด Dormant Commerce Clause แต่ข้อกำหนดการปฏิบัติตามที่เป็นกลางซึ่งใช้กับผู้พัฒนาทั้งหมดอย่างเท่าเทียมกันต้องเผชิญกับเกณฑ์ที่สูงกว่าสำหรับการท้าทายทางรัฐธรรมนูญ[^66]
บรรทัดฐานทางประวัติศาสตร์
ผู้สนับสนุนการท้าทาย Dormant Commerce Clause ต่อกฎหมาย AI ของรัฐมักอ้าง Pike v. Bruce Church (1970) เป็นบรรทัดฐานที่ต้องการ ในขณะที่ผู้ที่ไม่เห็นด้วยชี้ไปที่คำตัดสิน National Pork Producers Council v. Ross (2023) ที่เพิ่งผ่านมา[^67]
Commercial Space Launch Amendments Act of 2004 ให้บรรทัดฐานทางกฎหมายที่เกี่ยวข้อง รัฐสภาใช้ช่วงเวลาเรียนรู้ด้านกฎระเบียบที่จำกัด FAA จากการออกกฎระเบียบความปลอดภัยใหม่สำหรับการดำเนินงานการบินอวกาศเชิงพาณิชย์[^68] การระงับชั่วคราวนี้ถูกออกแบบมาเพื่อป้องกันความไม่แน่นอนด้านกฎระเบียบจากการขัดขวางอุตสาหกรรมที่เพิ่งเกิดใหม่
[เนื้อหาถูกตัดทอนสำหรับการแปล]