الملخص التنفيذي
أصبحت إلينوي أول ولاية تطبق متطلبات الشفافية في الذكاء الاصطناعي في التوظيف، مع دخول قانون مقابلة الفيديو بالذكاء الاصطناعي (AIVFA) حيز التنفيذ الكامل في فبراير 2026. يجب على أصحاب العمل الذين يستخدمون الذكاء الاصطناعي لتحليل مقابلات الفيديو الآن إخطار المرشحين وشرح كيفية عمل التكنولوجيا والحصول على موافقة قبل المتابعة. القانون، مقترناً بتعديلات على قانون حقوق الإنسان في إلينوي التي تستهدف التمييز الخوارزمي، يخلق أشمل إطار عمل للذكاء الاصطناعي في التوظيف في الولايات المتحدة. بينما تنظر 24 ولاية أخرى في تشريعات مماثلة، يوفر نهج إلينوي نموذجاً لتحقيق التوازن بين الابتكار في الذكاء الاصطناعي وحماية العمال.
تطور المشهد التنظيمي
نما سوق تكنولوجيا التوظيف بالذكاء الاصطناعي ليصل إلى 3.2 مليار دولار في 2025، مع استخدام أكثر من 83% من أصحاب العمل الآن لشكل من أشكال الفرز الآلي. منصات مقابلة الفيديو مثل HireVue و Pymetrics و Modern Hire تحلل استجابات المرشحين باستخدام التعرف على الوجوه وتحليل الصوت ومعالجة اللغة الطبيعية للتنبؤ بالأداء الوظيفي.
أصبح المشرعون في إلينوي قلقين بشأن عدم شفافية هذه الأنظمة. وجدت دراسة من معهد ماساتشوستس للتكنولوجيا عام 2024 أن أدوات التوظيف بالذكاء الاصطناعي أظهرت تحيزاً قابلاً للقياس ضد المرشحين ذوي البشرة الداكنة واللهجات غير الإنجليزية الأصلية والإعاقات المرئية. قيمت التكنولوجيا "الملائمة الثقافية" و"مهارات التواصل" دون أن يفهم المرشحون ما يتم قياسه أو كيف.
رعى النائب Jaime Andrade قانون AIVFA الأصلي في 2019، مما جعل إلينوي رائدة في هذا المجال. تعديلات فبراير 2026 عززت القانون بشكل كبير:
| المتطلب | القانون الأصلي 2020 | تعديل فبراير 2026 |
|---|---|---|
| إخطار المرشح | مطلوب | مطلوب مع توقيت محدد |
| شرح وظيفة الذكاء الاصطناعي | إفصاح عام | شرح مكتوب مفصل |
| آلية الموافقة | الموافقة الضمنية مسموحة | موافقة صريحة مكتوبة مطلوبة |
| حدود الاحتفاظ بالبيانات | غير محددة | أمر حذف لمدة 30 يوماً |
| الحق في المراجعة البشرية | غير مطروح | مضمون عند الطلب |
| هيكل العقوبة | المسؤولية المدنية | حتى 5,000 دولار لكل انتهاك |
ما يتطلبه القانون
الإخطار قبل التسجيل
يجب على أصحاب العمل إخطار المرشحين قبل أي مقابلة فيديو حيث سيحلل الذكاء الاصطناعي الاستجابات. يحدد إرشاد وزارة العمل في إلينوي أن الإخطار يجب أن يحدث:
- قبل 5 أيام عمل على الأقل من المقابلة المجدولة
- كتابياً عبر البريد الإلكتروني أو بوابة التطبيق
- بلغة المرشح المفضلة إذا طُلب ذلك
- مع تعريف واضح لصاحب العمل وبائع الذكاء الاصطناعي
لا يمكن دفن الإخطار في شروط الخدمة. تنص رأي استشاري من IDOL رقم 2026-02 على أن إفصاح الذكاء الاصطناعي يجب أن يظهر "بشكل بارز وواضح" في تواصل مستقل.
شرح وظائف الذكاء الاصطناعي
بعيداً عن الإخطار البسيط، يجب على أصحاب العمل شرح ما يحلله الذكاء الاصطناعي. يتطلب القسم 5(ب) الإفصاح عن:
- الخصائص المحددة المقيَّمة (تعابير الوجه، اختيار الكلمات، النبرة، إلخ.)
- كيف ترتبط الخصائص بمتطلبات الوظيفة
- هوية بائع الذكاء الاصطناعي ومعلومات الاتصال
- ما إذا كان المراجعون البشريون سيقيمون أيضاً المقابلة
- كم من الوقت سيتم الاحتفاظ بالتسجيل والتحليل
أصدرت HireVue، أكبر منصة مقابلة فيديو، دليل الامتثال لإلينوي لتوفير قوالب إفصاح. مثال على الشرح:
"يحلل نظام الذكاء الاصطناعي لدينا إجاباتك الشفهية لتقييم الكفاءات ذات الصلة بالوظيفة بما في ذلك نهج حل المشكلات ووضوح التواصل وتطابق معرفة المجال. النظام لا يحلل تعابير الوجه أو المظهر أو الخصائص الديموغرافية. يتم مراجعة نتائج التحليل من قبل فريق التوظيف لدينا خلال 14 يوماً."
متطلب الموافقة الصريحة
استبدل تعديل 2026 الموافقة الضمنية بموافقة صريحة مكتوبة. يجب على المرشحين الموافقة إيجابياً على تحليل الذكاء الاصطناعي—المتابعة مع المقابلة لم تعد تشكل موافقة.
يفرض القسم 10:
- يجب الحصول على الموافقة بعد تقديم الشرح
- يجب أن يكون لدى المرشحين خيار المتابعة بدون تحليل الذكاء الاصطناعي
- رفض تحليل الذكاء الاصطناعي لا يمكن أن يستبعد المرشحين من الاعتبار
- يمكن سحب الموافقة في أي وقت قبل قرار التوظيف النهائي
هذا يخلق تحديات عملية. إذا رفض مرشح تحليل الذكاء الاصطناعي في منتصف العملية، يجب على أصحاب العمل توفير مسار تقييم بديل.
الاحتفاظ بالبيانات والحذف
يجب حذف تسجيلات الفيديو وتحليل الذكاء الاصطناعي خلال 30 يوماً إلا إذا:
- تم توظيف المرشح (الاحتفاظ لسجلات التوظيف)
- قدم المرشح موافقة مكتوبة للاحتفاظ لفترة أطول
- نشأ نزاع قانوني يتطلب الحفظ
يمنح القسم 15 أيضاً المرشحين الحق في طلب نسخ من:
- تسجيلات الفيديو الخاصة بهم
- التقييمات والدرجات المُولَّدة بالذكاء الاصطناعي
- المعايير المستخدمة للتقييم
- أي ملاحظات من المراجع البشري
الحق في المراجعة البشرية
يمكن لأي مرشح طلب أن يقيم مراجع بشري—وليس فقط نظام الذكاء الاصطناعي—مقابلته. يوضح الأسئلة الشائعة لـ IDOL:
- يجب إجراء المراجعة البشرية من قبل شخص لديه سلطة التوظيف
- يجب على المراجع البشري مشاهدة الفيديو الفعلي، وليس فقط قراءة درجات الذكاء الاصطناعي
- يجب إخطار المرشحين بنتيجة المراجعة البشرية خلال 10 أيام عمل
- قرارات المراجعة البشرية تحل محل توصيات الذكاء الاصطناعي
العقوبات والإنفاذ
يتشارك المدعي العام لإلينوي ووزارة العمل سلطة الإنفاذ. تصاعدت العقوبات بشكل كبير في 2026:
| نوع الانتهاك | نطاق العقوبة |
|---|---|
| فشل في الإخطار | 1,000 - 5,000 دولار لكل مرشح |
| شرح غير كاف | 500 - 2,500 دولار لكل مرشح |
| موافقة مفقودة | 2,500 - 5,000 دولار لكل مرشح |
| انتهاك احتفاظ البيانات | 1,000 دولار يومياً |
| الانتقام من المشتكي | 10,000 دولار + أضرار فعلية |
ينشئ القانون أيضاً حق دعوى خاصة. يمكن للمرشحين مقاضاة أصحاب العمل مباشرة من أجل:
- أضرار قانونية قدرها 1,000 دولار لكل انتهاك
- أضرار فعلية (أجور مفقودة، ضائقة عاطفية)
- أتعاب المحاماة والتكاليف
- إنصاف قضائي
تقرر Littler Mendelson، شركة قانون التوظيف، أن 37 دعوى قضائية رُفعت في الشهر الأول بعد دخول التعديلات حيز التنفيذ.
الربط مع قانون حقوق الإنسان
عززت إلينوي إطار عمل الذكاء الاصطناعي في التوظيف من خلال تعديل قانون حقوق الإنسان في إلينوي (IHRA) لتغطية التمييز الخوارزمي صراحة.
مشروع قانون البيت 3773، الفعال من 1 يناير 2026، يجعل من غير القانوني لأصحاب العمل:
"استخدام الذكاء الاصطناعي الذي له أثر إخضاع الموظفين أو المتقدمين للتمييز على أساس طبقة محمية"
الطبقات المحمية تحت قانون إلينوي تشمل العرق واللون والدين والجنس والأصل القومي والنسب والعمر وحالة أمر الحماية والحالة الزوجية والإعاقة الجسدية أو العقلية والحالة العسكرية والميول الجنسية والهوية الجنسية والحمل والتسريح غير المناسب من الخدمة العسكرية.
هذا ينشئ معياراً للأثر المتباين لأدوات التوظيف بالذكاء الاصطناعي. حتى لو لم يكن لدى صاحب العمل نية تمييزية، فإن استخدام نظام ذكاء اصطناعي يستبعد بشكل غير متناسب الطبقات المحمية ينتهك القانون.
متطلبات الامتثال
يجب على أصحاب العمل الذين يستخدمون الذكاء الاصطناعي في قرارات التوظيف:
- إجراء مراجعات للتحيز لأنظمة الذكاء الاصطناعي سنوياً
- نشر نتائج المراجعة الملخصة على مواقع الشركة
- تقديم إخطار للمرشحين أن الذكاء الاصطناعي يُستخدم
- الاحتفاظ بسجلات أداء نظام الذكاء الاصطناعي لمدة 5 سنوات
أصدرت وزارة حقوق الإنسان في إلينوي القاعدة المقترحة 2026-07 التي تحدد معايير مراجعة التحيز:
| المقياس | العتبة |
|---|---|
| نسبة معدل الاختيار (أي طبقة محمية) | ليس أقل من 80% من طبقة الأغلبية |
| تباين توزيع النتائج | ضمن انحراف معياري واحد |
| تحليل الأثر المعاكس | سنوياً حسب الفئة الديموغرافية |
| متطلب المراجعة من طرف ثالث | كل سنتين كحد أدنى |
استجابة الصناعة
تكيفات البائعين
تسارعت منصات التوظيف بالذكاء الاصطناعي الرئيسية لتحقيق الامتثال. أعلنت HireVue في 2021 أنها ستزيل تحليل الوجوه تماماً، جزئياً استجابة لمخاوف إلينوي. وحدة إلينوي 2026 للشركة تتضمن الآن:
- تدفقات عمل إخطار المرشحين الآلية
- تتبع وتوثيق الموافقة
- حذف آلي للبيانات لمرشحي إلينوي خلال 30 يوماً
- توجيه طلبات المراجعة البشرية
نشرت Pymetrics (الآن جزء من Harver) نتائج مراجعة الخوارزميات التي تظهر المساواة الديموغرافية عبر العرق والجنس. ومع ذلك، يلاحظ النقاد أن المراجعات المُبلَّغ عنها ذاتياً تفتقر للتحقق المستقل.
أطلقت Modern Hire مجموعة أدوات الامتثال لإلينوي 2.0، تتضمن:
- قوالب إفصاح معتمدة مسبقاً
- مولدات استمارة الموافقة
- توثيق مسار المراجعة
- بروتوكولات تصعيد المراجعة البشرية
ردود فعل أصحاب العمل
استطلعت جمعية إدارة الموارد البشرية (SHRM) أصحاب العمل في يناير 2026:
| الاستجابة | النسبة المئوية |
|---|---|
| سيستمر في استخدام الذكاء الاصطناعي مع تعديلات الامتثال | 62% |
| إيقاف مؤقت لمقابلات الفيديو بالذكاء الاصطناعي | 23% |
| التحول إلى مقابلات بشرية مباشرة فقط | 11% |
| نقل عمليات التوظيف خارج إلينوي | 4% |
أعلنت McDonald's، التي تستخدم الذكاء الاصطناعي للفرز الأولي للعمال بالساعة، أنها ستوفر مساراً غير ذكي اصطناعي لجميع مرشحي إلينوي. توظف الشركة حوالي 50,000 عامل سنوياً في الولاية.
أفصحت State Farm، ومقرها بلومنغتون، إلينوي، أنها تستخدم الذكاء الاصطناعي لتحليل مقابلات الفيديو لكنها شددت:
"جميع قرارات التوظيف النهائية يتخذها البشر. تحليل الذكاء الاصطناعي يوفر نقطة بيانات واحدة من بين العديد، بما في ذلك مراجعة السيرة الذاتية وتقييمات المهارات والمقابلات الشخصية."
الآثار الوطنية
ولايات أخرى تراقب
يتتبع المؤتمر الوطني للمجالس التشريعية للولايات مشاريع قوانين الذكاء الاصطناعي في التوظيف عبر جميع الولايات الخمسين. اعتباراً من فبراير 2026:
| الفئة | الولايات |
|---|---|
| قوانين سُنَّت | إلينوي، ماريلاند، مدينة نيويورك* |
| مشاريع قوانين معلقة | كاليفورنيا، كولورادو، كونيتيكت، ماساتشوستس، نيو جيرسي، واشنطن |
| دراسات مأذونة | تكساس، فلوريدا، جورجيا، أوهايو |
| لا إجراء | 38 ولاية |
*القانون المحلي 144 لمدينة نيويورك يتطلب مراجعات التحيز لكنه لا يفرض إخطار المرشح أو الموافقة.
مشروع قانون كاليفورنيا AB 2930، حالياً في اللجنة، سيفرض متطلبات تتجاوز إلينوي:
- مراجعات تحيز إجبارية من مراجعين معتمدين من الولاية
- إفصاح عام لمنهجيات المراجعة
- الحق في المقاضاة دون تقديم شكوى للوكالة أولاً
- 10,000 دولار كحد أدنى للأضرار القانونية لكل انتهاك
يقترح مشروع قانون كولورادو SB 26-089 سجل "ذكاء اصطناعي عالي المخاطر" يتطلب من أصحاب العمل الإبلاغ عن استخدام أدوات التوظيف بالذكاء الاصطناعي للولاية.
المشهد الفدرالي
أصدرت لجنة تكافؤ فرص التوظيف (EEOC) إرشاداً في 2023 تحذر من أن الباب السابع ينطبق على تمييز التوظيف بالذكاء الاصطناعي. ومع ذلك، يبقى قانون التوظيف الفدرالي للذكاء الاصطناعي محدوداً.
قانون حماية البيانات والخصوصية الأمريكي (ADPPA) توقف في الكونغرس الـ118 لكن كان سيلغي قوانين الذكاء الاصطناعي للولايات بمعيار وطني. أمر إدارة Trump التنفيذي لديسمبر 2025 يوجه وزارة العدل لتحدي قوانين الذكاء الاصطناعي "المفرطة" للولايات لكنه لم يستهدف قوانين التوظيف تحديداً.
قدمت السيناتور Maria Cantwell (D-WA) قانون المساءلة الخوارزمية لعام 2026، الذي سيتطلب:
- تقييمات الأثر لأنظمة القرار الآلي
- متطلبات مراجعة للذكاء الاصطناعي عالي المخاطر
- التزامات الشفافية للمستهلكين والعمال
- سلطة إنفاذ لجنة التجارة الفدرالية
لدى المشروع 42 راعياً مشاركاً لكنه يواجه معارضة من مجموعات الأعمال القلقة بشأن تكاليف الامتثال.
قائمة مراجعة الامتثال لأصحاب العمل
توصي Jackson Lewis، شركة قانون التوظيف، بما يلي للامتثال في إلينوي:
قبل تطبيق مقابلات الفيديو بالذكاء الاصطناعي
- العناية الواجبة للبائع
- الحصول على نتائج مراجعة تحيز البائع
- مراجعة ممارسات الاحتفاظ بالبيانات
- تأكيد قدرات آلية الموافقة
-
التحقق من دعم ميزات خاصة بإلينوي
-
المراجعة القانونية
- تحديث سياسات التوظيف
- إنشاء قوالب إخطار متوافقة
- تطوير توثيق الموافقة
-
وضع إجراءات المراجعة البشرية
-
تدريب الموارد البشرية
- متطلبات توقيت الإخطار
- إجراءات جمع الموافقة
- التعامل مع طلبات المراجعة البشرية
- بروتوكولات حذف البيانات
الامتثال المستمر
| المهمة | التكرار |
|---|---|
| مراجعة مراجعة التحيز | سنوياً |
| تحديثات قالب الإخطار | مع تغيير القوانين |
| مراجعات سجل الموافقة | ربع سنوي |
| التحقق من حذف البيانات | شهرياً |
| تحليل نتائج المراجعة البشرية | ربع سنوي |
متطلبات التوثيق
الاحتفاظ لمدة 5 سنوات:
- جميع إخطارات المرشحين المرسلة
- استمارات الموافقة (موقعة)
- نتائج تحليل الذكاء الاصطناعي
- قرارات المراجعة البشرية
- تأكيدات حذف البيانات
- تقارير مراجعة التحيز
ما يجب أن يعرفه المرشحون
نشرت المساعدة القانونية في إلينوي إرشاداً للباحثين عن عمل:
حقوقك تحت AIVFA
- الحق في المعرفة: يجب على أصحاب العمل إخبارك قبل المقابلة أن الذكاء الاصطناعي سيحلل إجاباتك
- الحق في الفهم: يجب أن تتلقى شرحاً مكتوباً لما يقيمه الذكاء الاصطناعي
- الحق في الموافقة: يمكنك رفض تحليل الذكاء الاصطناعي ولا تزال تُعتبر للوظيفة
- الحق في المراجعة البشرية: يمكنك طلب أن يشاهد شخص مقابلتك، وليس فقط الذكاء الاصطناعي
- الحق في بياناتك: يمكنك طلب نسخ من فيديوك وتقييم الذكاء الاصطناعي
- الحق في الحذف: يجب حذف بياناتك خلال 30 يوماً (إلا إذا تم توظيفك)
العلامات الحمراء
اتصل بـالمدعي العام لإلينوي إذا:
- لم تتلق إخطاراً قبل مقابلة محللة بالذكاء الاصطناعي
- جاء الإخطار بعد المقابلة أو قبل أقل من 5 أيام عمل
- لم تُعرض عليك بديل لتحليل الذكاء الاصطناعي
- طلبت مراجعة بشرية ولم تتلق رد
- طلبت بياناتك ولم تتلق رد خلال 10 أيام
تقديم شكوى
توجد ثلاث خيارات:
- وزارة العمل في إلينوي: تقديم عبر الإنترنت
- المدعي العام لإلينوي: استمارة شكوى المستهلك
- دعوى خاصة: استشارة محامي توظيف
وجهات نظر الصناعة
دعم القانون
د. Sandra Wachter، أستاذة معهد الإنترنت في أكسفورد وباحثة أخلاقيات الذكاء الاصطناعي:
"إلينوي تُظهر أن تنظيم الذكاء الاصطناعي في التوظيف ليس ممكناً فحسب بل ضروري. للعمال حق أساسي في فهم كيف يتم تقييمهم. هذه القوانين تخلق مساءلة حيث لم تكن موجودة."
Alexandra Givens، الرئيس التنفيذي لمركز الديمقراطية والتكنولوجيا:
"عدم شفافية أدوات التوظيف بالذكاء الاصطناعي سمح للتمييز بالازدهار دون فحص. نهج إلينوي—الإخطار والشرح والموافقة—يمثل المعيار الأدنى الذي يجب على جميع الولايات اعتماده."
مخاوف حول التطبيق
Keith Sonderling، مفوض EEOC:
"بينما أهداف الشفافية جديرة بالثناء، فإن الخليط من قوانين الولايات يخلق أعباء امتثال كبيرة لأصحاب العمل متعددي الولايات. نحتاج لقيادة فدرالية لتوفير معايير متسقة."
Emily Dickens، رئيسة موظفي SHRM:
"أصحاب العمل يريدون الامتثال، لكن المتطلبات التقنية تتغير أسرع من الإرشاد القانوني. الشركات الصغيرة خاصة تكافح لفهم ما يعنيه 'الشرح الكافي' في الممارسة."
النظر إلى المستقبل
إطار عمل الذكاء الاصطناعي في التوظيف في إلينوي من المرجح أن يتوسع في 2026-2027. التشريع المعلق سيؤدي إلى:
- توسيع متطلبات الإخطار لتشمل جميع قرارات التوظيف بالذكاء الاصطناعي (وليس فقط مقابلات الفيديو)
- طلب مراجعات تحيز سنوية مع إفصاح عام
- إنشاء حق دعوى خاصة تحت قانون حقوق الإنسان
- إلزام إخطار العامل عندما يراقب الذكاء الاصطناعي الإنتاجية
أشار الحاكم JB Pritzker إلى الدعم لحماية شاملة للعمال بالذكاء الاصطناعي:
"إلينوي ستستمر في قيادة البلاد في ضمان أن الذكاء الاصطناعي يخدم العمال بدلاً من استغلالهم. التكنولوجيا يجب أن تعزز الحكم البشري، وليس أن تحل محله بدون مساءلة."
بالنسبة لأصحاب العمل، الرسالة واضحة: شفافية التوظيف بالذكاء الاصطناعي لم تعد اختيارية في إلينوي، وولايات أخرى تتبع. بناء عمليات متوافقة الآن سيسهل الانتقال عندما تظهر المعايير الفدرالية في النهاية.
النقاط الرئيسية
-
قانون AIVFA في إلينوي ينشئ أشمل متطلبات مقابلة الفيديو بالذكاء الاصطناعي في البلاد، يفرض الإخطار والشرح والموافقة وحدود الاحتفاظ بالبيانات وحقوق المراجعة البشرية
-
العقوبات كبيرة—حتى 5,000 دولار لكل انتهاك إضافة إلى الدعاوى الخاصة—والإنفاذ بدأ مع 37 قضية رُفعت في الشهر الأول
-
تعديلات قانون حقوق الإنسان في إلينوي تضيف مسؤولية الأثر المتباين لأدوات التوظيف بالذكاء الاصطناعي التي تستبعد بشكل غير متناسب الطبقات المحمية
-
بائعو التوظيف الكبار بالذكاء الاصطناعي أطلقوا وحدات امتثال خاصة بإلينوي، لكن أصحاب العمل يبقون مسؤولين عن ضمان التنفيذ السليم
-
24 ولاية أخرى تنظر في تشريع مماثل، مما يجعل إطار عمل إلينوي نموذجاً لتنظيم التوظيف الوطني بالذكاء الاصطناعي
-
أصحاب العمل متعددو الولايات يجب أن يستعدوا الآن من خلال مراجعة أدوات التوظيف بالذكاء الاصطناعي وتحديث ممارسات الإخطار ووضع إجراءات المراجعة البشرية
فرق الهندسة الميدانية لـ Introl تدعم البنية التحتية لمراكز البيانات عبر 257 موقعاً حيث يتم نشر تكنولوجيا التوظيف بالذكاء الاصطناعي. للامتثال لمتطلبات البنية التحتية الحاسوبية المتطورة، اتصل بـفريق التغطية لدينا.