การเผชิญหน้าระหว่างกฎหมาย AI ของรัฐบาลกลางและรัฐ: คำสั่งฝ่ายบริหารของทรัมป์สร้างวิกฤตรัฐธรรมนูญเรื่องการกำกับดูแล AI

คำสั่งฝ่ายบริหารของทรัมป์เมื่อวันที่ 11 ธันวาคม สั่งการให้กระทรวงยุติธรรมฟ้องร้องกฎหมาย AI ของ 38 รัฐในศาลของรัฐบาลกลาง ในขณะที่ข้อกำหนดความโปร่งใสที่สำคัญของแคลิฟอร์เนียมีผลบังคับใช้ในวันที่ 1 มกราคม และคณะทำงานของกระทรวงยุติธรรมจะเริ่มดำเนินการในวันที่ 10 มกราคม องค์กรธุรกิจต้องเผชิญกับความไม่แน่นอนด้านกฎระเบียบอย่างที่ไม่เคยมีมาก่อน

การเผชิญหน้าระหว่างกฎหมาย AI ของรัฐบาลกลางและรัฐ: คำสั่งฝ่ายบริหารของทรัมป์สร้างวิกฤตรัฐธรรมนูญเรื่องการกำกับดูแล AI

การเผชิญหน้าระหว่างกฎหมาย AI ของรัฐบาลกลางและรัฐ: คำสั่งฝ่ายบริหารของทรัมป์สร้างวิกฤตรัฐธรรมนูญเรื่องการกำกับดูแล AI

สามสิบแปดรัฐผ่านกฎหมาย AI ในปี 2025 โดยมีการเสนอร่างกฎหมายที่เกี่ยวข้องกับ AI มากกว่า 1,000 ฉบับทั่วทุกรัฐและดินแดนของสหรัฐอเมริกา[^1] ในวันที่ 1 มกราคม 2026 กฎหมายที่สำคัญที่สุดในจำนวนนั้นมีผลบังคับใช้[^2] แปดวันต่อมา คณะทำงานของกระทรวงยุติธรรมจะเริ่มฟ้องร้องกฎหมายเหล่านั้นในศาลของรัฐบาลกลาง[^3]

สรุปย่อ

คำสั่งฝ่ายบริหารของประธานาธิบดีทรัมป์เมื่อวันที่ 11 ธันวาคม 2025 ในหัวข้อ "การรับรองกรอบนโยบายระดับชาติสำหรับปัญญาประดิษฐ์" จุดชนวนการปะทะกันระหว่างรัฐบาลกลางและรัฐในเรื่องการกำกับดูแล AI คำสั่งนี้จัดตั้งคณะทำงานดำเนินคดีของกระทรวงยุติธรรมที่จะเริ่มดำเนินการในวันที่ 10 มกราคม เพื่อฟ้องร้องกฎหมายของรัฐด้วยเหตุผลทางรัฐธรรมนูญ คุกคามเงินทุนโครงสร้างพื้นฐานบรอดแบนด์มูลค่า 42 พันล้านดอลลาร์ และกำหนดให้กระทรวงพาณิชย์ประเมินกฎระเบียบของรัฐที่ "สร้างภาระ" ภายในวันที่ 11 มีนาคม ข้อกำหนดความโปร่งใสสำหรับผู้พัฒนา frontier AI ของแคลิฟอร์เนีย (SB 53) กฎการกำกับดูแล AI อย่างรับผิดชอบของเท็กซัส (TRAIGA) และการคุ้มครองการเลือกปฏิบัติทางอัลกอริทึมของโคโลราโด (SB 24-205) ทั้งหมดอาจถูกฟ้องร้อง องค์กรที่ใช้งานระบบ AI ในปัจจุบันต้องปฏิบัติตามข้อกำหนดสองชุดในขณะที่ศาลตัดสินว่ากฎหมายใดจะยังคงอยู่ การเผชิญหน้าทางรัฐธรรมนูญนี้อาจขึ้นสู่ศาลฎีกาในที่สุด

ช่องว่างทางกฎระเบียบที่รัฐต่างๆ รีบเข้ามาเติมเต็ม

สหรัฐอเมริกาไม่มีกฎหมายของรัฐบาลกลางที่ครอบคลุมในการกำกับดูแลการพัฒนา AI หรือจำกัดการใช้งานอย่างชัดเจน[^4] แตกต่างจากแนวทางที่มีโครงสร้างของสหภาพยุโรปภายใต้ EU AI Act การกำกับดูแล AI ของอเมริกาเกิดขึ้นผ่านแนวทางของหน่วยงานของรัฐบาลกลางและความคิดริเริ่มระดับรัฐที่กระจัดกระจาย[^5]

การดำเนินการของรัฐบาลกลางถูกจำกัดอยู่ที่กรอบการทำงานโดยสมัครใจ ในเดือนมกราคม 2023 สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เผยแพร่กรอบการจัดการความเสี่ยง AI (AI RMF 1.0) ซึ่งให้แนวทางที่ไม่มีผลผูกพันสำหรับองค์กร[^6] คำสั่งฝ่ายบริหารของประธานาธิบดีไบเดนเมื่อเดือนตุลาคม 2023 เรื่อง AI ที่ปลอดภัย มั่นคง และน่าเชื่อถือ กำหนดข้อกำหนดการรายงานและโปรโตคอลการทดสอบความปลอดภัย แต่ขาดกลไกการบังคับใช้[^7]

รัฐต่างๆ ดำเนินการอย่างเด็ดขาดเพื่อเติมเต็มช่องว่างนี้ กิจกรรมทางกฎหมายเร่งตัวขึ้นอย่างมาก:

ปี ร่างกฎหมาย AI ที่เสนอ กฎหมายที่ประกาศใช้ การพัฒนาที่สำคัญ
2023 40+ 2 (CT, TX) NYC Local Law 144 เรื่องการจ้างงานอัตโนมัติ[^8]
2024 700+ 45 Colorado AI Act ลงนาม, CA SB 1047 ถูกยับยั้ง[^9]
2025 1,000+ 186 CA SB 53, TX TRAIGA, 38 รัฐมีกฎหมาย AI[^10]

ภายในสิ้นปี 2025 สภานิติบัญญัติของรัฐได้สร้างกรอบกฎระเบียบที่เป็นจริงสำหรับ AI ในอเมริกา[^11]

เนื้อหาที่แท้จริงของคำสั่งฝ่ายบริหาร

ประธานาธิบดีทรัมป์ลงนามคำสั่งฝ่ายบริหารเมื่อวันที่ 11 ธันวาคม 2025 โดยเสนอให้กฎหมาย AI ของรัฐที่ถือว่าไม่สอดคล้องกับนโยบายระดับชาติถูกยกเลิกโดยกฎหมายของรัฐบาลกลาง[^12] คำสั่งซึ่งมีชื่อว่า "การรับรองกรอบนโยบายระดับชาติสำหรับปัญญาประดิษฐ์" กำหนดกลไกการบังคับใช้หลายประการ[^13]

คณะทำงานดำเนินคดี AI ของกระทรวงยุติธรรม

อัยการสูงสุดต้องจัดตั้ง "คณะทำงานดำเนินคดี AI" ภายในกระทรวงยุติธรรม[^14] คณะทำงานมีภารกิจเฉพาะ: ฟ้องร้องกฎหมาย AI ของรัฐด้วยเหตุผลว่าเป็นการกำกับดูแลการค้าระหว่างรัฐที่ขัดต่อรัฐธรรมนูญและละเมิดหลักการยกเลิกกฎหมายของรัฐโดยกฎหมายของรัฐบาลกลาง[^15]

ตั้งแต่วันที่ 10 มกราคม 2026 ทนายความของกระทรวงยุติธรรมจะระบุและดำเนินการทางกฎหมายต่อกฎระเบียบของรัฐที่ฝ่ายบริหารถือว่าเกินขอบเขต[^16] คณะทำงานนี้เป็นความพยายามครั้งแรกของรัฐบาลกลางที่ทุ่มเทเพื่อท้าทายกฎระเบียบเทคโนโลยีของรัฐอย่างเป็นระบบผ่านการดำเนินคดี

การประเมินของกระทรวงพาณิชย์

รัฐมนตรีว่าการกระทรวงพาณิชย์ Howard Lutnick ต้องเผยแพร่การประเมินภายในวันที่ 11 มีนาคม 2026 โดยระบุกฎหมายของรัฐที่ "สมควรได้รับการส่งต่อ" ไปยังคณะทำงานดำเนินคดี[^17] การประเมินจะพิจารณาว่ากฎระเบียบใดสร้างข้อกำหนดการปฏิบัติตามที่ "เป็นภาระ" สำหรับผู้พัฒนาและผู้ใช้งาน AI

แถลงการณ์นโยบายของ FTC

คณะกรรมการการค้าแห่งสหพันธรัฐต้องออกแถลงการณ์นโยบายเรื่องการยกเลิกกฎหมายของรัฐโดยกฎหมายของรัฐบาลกลางด้าน AI ภายในวันที่ 11 มีนาคม 2026[^18] แถลงการณ์จะระบุจุดยืนของคณะกรรมการเกี่ยวกับอำนาจของรัฐบาลกลางเทียบกับรัฐในการคุ้มครองผู้บริโภคด้าน AI

การใช้แรงกดดันทางการเงิน

คำสั่งใช้เครื่องมือทางการเงินที่สำคัญ: เงินทุนโครงสร้างพื้นฐานบรอดแบนด์ที่จัดสรรไว้ก่อนหน้านี้มูลค่า 42 พันล้านดอลลาร์มีเงื่อนไขว่ารัฐต้องยกเลิกกฎระเบียบ AI ที่ฝ่ายบริหารถือว่า "สร้างภาระมาก"[^19] เงินทุนนี้ถูกจัดสรรภายใต้กฎหมายการลงทุนโครงสร้างพื้นฐานและการจ้างงานเพื่อการขยายบรอดแบนด์ในชนบท

ข้อยกเว้น

คำสั่งฝ่ายบริหารยกเว้นการคุ้มครองบางประการจากการถูกยกเลิก กฎระเบียบที่ครอบคลุมความปลอดภัยของเด็ก โครงสร้างพื้นฐานการประมวลผล AI และศูนย์ข้อมูล และการจัดซื้อจัดจ้างของรัฐบาลรัฐยังคงไม่ถูกแตะต้อง[^20] รัฐยังคงมีอำนาจในการกำกับดูแลระบบ AI ที่ใช้ในการดำเนินงานของรัฐบาลของตนเอง

แคลิฟอร์เนีย: ศูนย์กลางของการต่อสู้ทางกฎหมาย

แคลิฟอร์เนียผ่านร่างกฎหมายที่เกี่ยวข้องกับ AI 17 ฉบับในปี 2024 เพียงปีเดียว ทำให้เป็นสภานิติบัญญัติของรัฐที่มีความเคลื่อนไหวมากที่สุดในการกำกับดูแล AI[^21] ผู้ว่าการ Gavin Newsom ยับยั้ง SB 1047 ที่ครอบคลุมในเดือนกันยายน 2024 แต่ลงนามร่างกฎหมายเฉพาะเจาะจงหลายฉบับที่มีผลบังคับใช้ในวันที่ 1 มกราคม 2026[^22]

SB 53: กฎหมายความโปร่งใสใน Frontier Artificial Intelligence

SB 53 เป็นกรอบกฎหมายแรกของประเทศที่มุ่งเป้าไปที่ผู้พัฒนา frontier AI โดยเฉพาะ[^23] ผู้ว่าการ Newsom ลงนามร่างกฎหมายเมื่อวันที่ 29 กันยายน 2025[^24]

ผู้ที่อยู่ภายใต้กฎหมาย: กฎหมายใช้กับผู้พัฒนาโมเดล AI ที่ฝึกด้วยพลังการประมวลผลที่เกิน 10^26 FLOPs (floating-point operations)[^25] เกณฑ์นี้สะท้อนคำสั่งฝ่ายบริหารด้าน AI ของรัฐบาลไบเดนปี 2023 และเกินเกณฑ์ 10^25 FLOP ของ EU AI Act[^26]

ผู้พัฒนา frontier รายใหญ่ที่มีรายได้ประจำปีเกิน 500 ล้านดอลลาร์ต้องปฏิบัติตามข้อกำหนดเพิ่มเติม[^27] การครอบคลุมขยายไปถึงหน่วยงานใดก็ตามที่ทำให้โมเดลพร้อมใช้งานสำหรับผู้ใช้ในแคลิฟอร์เนีย ไม่ว่าบริษัทจะมีสำนักงานใหญ่อยู่ที่ใด[^28]

ข้อกำหนดหลัก:

ข้อกำหนด รายละเอียด กำหนดเวลา
รายงานความโปร่งใส เผยแพร่บนเว็บไซต์ก่อนหรือตอนเปิดตัวโมเดล[^29] 1 มกราคม 2026
กรอบการทำงาน frontier AI บันทึกการประเมินความเสี่ยงและมาตรการบรรเทา[^30] 1 มกราคม 2026
การเปิดเผยความเสี่ยงภัยพิบัติ ประเมินความเสี่ยงที่ทำให้เกิดการบาดเจ็บ 50+ รายหรือความเสียหาย 1 พันล้านดอลลาร์ขึ้นไป[^31] 1 มกราคม 2026
การรายงานเหตุการณ์ด้านความปลอดภัย รายงานเหตุการณ์ต่อสำนักงานบริการฉุกเฉิน[^32] 1 มกราคม 2026
การคุ้มครองผู้แจ้งเบาะแส คุ้มครองพนักงานที่รายงานความกังวลด้านความปลอดภัย[^33] 1 มกราคม 2026
กลุ่ม CalCompute ออกแบบ public cloud ของรัฐสำหรับการวิจัย AI[^34] รายงานครบกำหนด 1 มกราคม 2027

บทลงโทษ: ผู้พัฒนาที่ไม่ปฏิบัติตามต้องเผชิญโทษทางแพ่งสูงสุด 1 ล้านดอลลาร์ต่อการละเมิด บังคับใช้โดยอัยการสูงสุดของแคลิฟอร์เนีย[^35]

กฎหมาย AI เพิ่มเติมของแคลิฟอร์เนียที่มีผลบังคับใช้ในเดือนมกราคม 2026

ร่างกฎหมาย จุดเน้น ข้อกำหนดหลัก
AB 2023 ข้อมูลการฝึก ต้องมีสรุประดับสูงของแหล่งข้อมูลการฝึก[^36]
SB 942 การตรวจจับเนื้อหา ระบบ AI ที่มีผู้ใช้รายเดือน 1 ล้านคนขึ้นไปต้องใช้การเปิดเผยเนื้อหา[^37]
SB 243 ความปลอดภัยของแชทบอท แชทบอทคู่หูต้องมีมาตรการป้องกันความปลอดภัยสำหรับผู้เยาว์[^38]
AB 325 การกำหนดราคา ข้อจำกัดการกำหนดราคาผ่านอัลกอริทึม[^39]
AB 489 การดูแลสุขภาพ ข้อกำหนดการเปิดเผย AI สำหรับบริบทการดูแลสุขภาพ[^40]

เท็กซัสและโคโลราโด: แนวทางที่แตกต่าง เป้าหมายของรัฐบาลกลางเดียวกัน

Texas Responsible AI Governance Act (TRAIGA)

ผู้ว่าการ Greg Abbott ลงนาม TRAIGA เมื่อวันที่ 22 มิถุนายน 2025 โดยกำหนดกรอบที่แคบกว่าร่างกฎหมายดั้งเดิมที่เสนอ[^41] ร่างเริ่มแรกในเดือนธันวาคม 2024 มีลักษณะคล้ายกับ Colorado AI Act และ EU AI Act แต่ผู้ร่างกฎหมายลดภาระผูกพันของภาคเอกชนลงอย่างมาก[^42]

ผู้ที่อยู่ภายใต้กฎหมาย: TRAIGA ใช้กับบุคคลใดก็ตามที่ส่งเสริมหรือดำเนินธุรกิจในเท็กซัส ผลิตผลิตภัณฑ์ที่ผู้อยู่อาศัยในเท็กซัสใช้ หรือพัฒนาหรือใช้งานระบบ AI ในเท็กซัส[^43]

บทบัญญัติหลัก:

พื้นที่ ข้อกำหนด
การเลือกปฏิบัติ ห้ามใช้ AI โดยมีเจตนาเฉพาะเจาะจงในการเลือกปฏิบัติ; ผลกระทบที่แตกต่างเพียงอย่างเดียวไม่เพียงพอ[^44]
ข้อมูลไบโอเมตริก หน่วยงานรัฐบาลไม่สามารถใช้ AI เพื่อระบุตัวบุคคลผ่านข้อมูลไบโอเมตริกโดยไม่ได้รับความยินยอม[^45]
AI ของรัฐบาล จัดตั้งสภาปัญญาประดิษฐ์แห่งเท็กซัสและโปรแกรม regulatory sandbox[^46]
การดูแลสุขภาพ ผู้ประกอบวิชาชีพที่มีใบอนุญาตสามารถใช้ AI สำหรับการวินิจฉัยได้หากพวกเขาตรวจสอบบันทึกที่สร้างโดย AI ทั้งหมด[^47]

กฎหมายมีผลบังคับใช้ในวันที่ 1 มกราคม 2026[^48] ต่างจากแนวทางที่ครอบคลุมของโคโลราโด เท็กซัสมุ่งเน้นไปที่กรณีการใช้งานของรัฐบาลเป็นหลักในขณะที่สร้างกรอบความรับผิดตามเจตนาสำหรับการเรียกร้องการเลือกปฏิบัติของภาคเอกชน[^49]

Colorado Artificial Intelligence Act (SB 24-205)

กฎหมายของโคโลราโด ลงนามเมื่อวันที่ 17 พฤษภาคม 2024 เป็นกฎหมายคุ้มครองผู้บริโภคเฉพาะ AI ที่มีรายละเอียดมากที่สุดในประเทศ[^50] วันที่บังคับใช้ถูกเลื่อนจากวันที่ 1 กุมภาพันธ์ 2026 เป็นวันที่ 30 มิถุนายน 2026 ซึ่งน่าจะคาดการณ์ถึงการตอบโต้จากรัฐบาลกลาง[^51]

ผู้ที่อยู่ภายใต้กฎหมาย: กฎหมายใช้กับ "ผู้พัฒนา" (ผู้ที่สร้าง AI) และ "ผู้ใช้งาน" (ผู้ที่ใช้ AI ในการตัดสินใจที่มีผลกระทบสำคัญ)[^52]

ข้อกำหนดหลักสำหรับผู้พัฒนา: - จัดเตรียมเอกสารอย่างละเอียดให้ผู้ใช้งาน รวมถึงวัตถุประสงค์ ความเสี่ยง และสรุปข้อมูล[^53] - ดูแลเว็บไซต์สาธารณะที่สรุประบบที่มีความเสี่ยงสูงและการจัดการความเสี่ยงจากการเลือกปฏิบัติ[^54] - เปิดเผยความเสี่ยงจากการเลือกปฏิบัติทางอัลกอริทึมที่ทราบต่ออัยการสูงสุดภายใน 90 วันหลังจากการค้นพบ[^55]

ข้อกำหนดหลักสำหรับผู้ใช้งาน: - ดำเนินการและจัดทำเอกสารการประเมินผลกระทบก่อนการใช้งาน รายปี และภายใน 90 วันหลังจากการปรับเปลี่ยนที่สำคัญ[^56] - แจ้งผู้บริโภคเมื่อ AI ที่มีความเสี่ยงสูงทำการตัดสินใจที่มีผลกระทบสำคัญ[^57] - ให้โอกาสในการแก้ไขข้อมูลส่วนบุคคลที่ไม่ถูกต้องและอุทธรณ์การตัดสินใจผ่านการตรวจสอบโดยมนุษย์[^58]

การเลือกปฏิบัติทางอัลกอริทึม ถูกกำหนดเป็นเงื่อนไขใดก็ตามที่ระบบ AI ส่งผลให้เกิดการปฏิบัติที่แตกต่างกันอย่างผิดกฎหมายตามลักษณะที่ได้รับการคุ้มครอง รวมถึงอายุ เชื้อชาติ และความพิการ[^59]

การบังคับใช้: อัยการสูงสุดของโคโลราโดมีอำนาจบังคับใช้แต่เพียงผู้เดียว; การละเมิดถือเป็นการปฏิบัติทางการค้าที่ไม่เป็นธรรม[^60]

คำถามทางรัฐธรรมนูญ: ประธานาธิบดีสามารถยกเลิกกฎหมายของรัฐได้หรือไม่?

รากฐานทางกฎหมายของคำสั่งฝ่ายบริหารเผชิญกับความท้าทายที่สำคัญ นักวิชาการด้านรัฐธรรมนูญตั้งข้อสังเกตว่าศาลฎีกาได้ตัดสินอย่างสม่ำเสมอว่ามีเพียงรัฐสภาเท่านั้นที่สามารถยกเลิกกฎหมายของรัฐภายใต้มาตรา I ของรัฐธรรมนูญ[^61]

ข้อโต้แย้ง Dormant Commerce Clause

ฝ่ายบริหารโต้แย้งว่าการกำกับดูแล AI ทีละรัฐสร้างกฎระเบียบที่กระจัดกระจายของ 50 ระบบที่แตกต่างกัน ทำให้การปฏิบัติตามมีความท้าทายโดยไม่จำเป็น[^62] กฎหมายของรัฐบางครั้งกำกับดูแลพฤติกรรมนอกเขตแดนของตน ซึ่งอาจกระทบต่อการค้าระหว่างรัฐ[^63]

กฎระเบียบ AI ของรัฐมักมีผลกระทบนอกอาณาเขต จากมุมมองทางรัฐธรรมนูญ กฎระเบียบดังกล่าวอาจเสี่ยงต่อการถูกท้าทายตาม Dormant Commerce Clause เนื่องจากเป็นตัวแทนของการแบ่งแยกกฎระเบียบที่ Commerce Clause ออกแบบมาเพื่อป้องกัน[^64]

อย่างไรก็ตาม ศาลฎีกาได้ปฏิเสธข้อโต้แย้งอย่างสม่ำเสมอว่ากฎหมายของรัฐที่เพียงแค่ส่งผลกระทบต่อการค้านอกรัฐนั้นขัดต่อรัฐธรรมนูญ[^65] กฎหมายของรัฐที่กำหนดข้อกำหนดที่สร้างภาระให้ผู้พัฒนานอกรัฐในขณะที่ยกเว้นผู้พัฒนาในรัฐอาจละเมิด Dormant Commerce Clause แต่ข้อกำหนดการปฏิบัติตามที่เป็นกลางซึ่งใช้กับผู้พัฒนาทั้งหมดอย่างเท่าเทียมกันต้องเผชิญกับเกณฑ์ที่สูงกว่าสำหรับการท้าทายทางรัฐธรรมนูญ[^66]

บรรทัดฐานทางประวัติศาสตร์

ผู้สนับสนุนการท้าทาย Dormant Commerce Clause ต่อกฎหมาย AI ของรัฐมักอ้าง Pike v. Bruce Church (1970) เป็นบรรทัดฐานที่ต้องการ ในขณะที่ผู้ที่ไม่เห็นด้วยชี้ไปที่คำตัดสิน National Pork Producers Council v. Ross (2023) ที่เพิ่งผ่านมา[^67]

Commercial Space Launch Amendments Act of 2004 ให้บรรทัดฐานทางกฎหมายที่เกี่ยวข้อง รัฐสภาใช้ช่วงเวลาเรียนรู้ด้านกฎระเบียบที่จำกัด FAA จากการออกกฎระเบียบความปลอดภัยใหม่สำหรับการดำเนินงานการบินอวกาศเชิงพาณิชย์[^68] การระงับชั่วคราวนี้ถูกออกแบบมาเพื่อป้องกันความไม่แน่นอนด้านกฎระเบียบจากการขัดขวางอุตสาหกรรมที่เพิ่งเกิดใหม่

[เนื้อหาถูกตัดทอนสำหรับการแปล]

ขอใบเสนอราคา_

แจ้งรายละเอียดโครงการของคุณ เราจะตอบกลับภายใน 72 ชั่วโมง

> TRANSMISSION_COMPLETE

ได้รับคำขอแล้ว_

ขอบคุณสำหรับคำสอบถาม ทีมงานจะตรวจสอบคำขอและติดต่อกลับภายใน 72 ชั่วโมง

QUEUED FOR PROCESSING