NVIDIA في NeurIPS 2025: نموذج Alpamayo-R1 ودفعة الذكاء الاصطناعي المادي يعيدان تشكيل الأنظمة المستقلة

نماذج الذكاء الاصطناعي المادي مفتوحة المصدر من NVIDIA تخلق متطلبات بنية تحتية جديدة للأنظمة المستقلة.

NVIDIA في NeurIPS 2025: نموذج Alpamayo-R1 ودفعة الذكاء الاصطناعي المادي يعيدان تشكيل الأنظمة المستقلة

NVIDIA في NeurIPS 2025: نموذج Alpamayo-R1 ودفعة الذكاء الاصطناعي المادي يعيدان تشكيل الأنظمة المستقلة

10 ديسمبر 2025 بقلم Blake Crosley

أطلقت NVIDIA نموذج DRIVE Alpamayo-R1 (AR1)، وهو نموذج لغوي بصري للتفكير والفعل يضم 10 مليارات معامل مخصص للتنقل، في مؤتمر NeurIPS 2025 بسان دييغو.1 يمثل هذا الإطلاق أكبر مساهمة مفتوحة المصدر من NVIDIA في مجال أبحاث القيادة الذاتية، مصحوباً بمجموعة بيانات قيادة تبلغ 1,727 ساعة تغطي 25 دولة—أي ما يعادل ثلاثة أضعاف حجم مجموعة Waymo Open Dataset تقريباً.2 قدم باحثو NVIDIA أكثر من 70 ورقة بحثية وجلسة في المؤتمر، مما يشير إلى توسع دور الشركة من الأجهزة إلى تطوير نماذج الذكاء الاصطناعي.3

يعالج إطلاق Alpamayo-R1 تحدياً جوهرياً في تطوير المركبات ذاتية القيادة: غموض "الصندوق الأسود" في اتخاذ قرارات الذكاء الاصطناعي. ينتج AR1 "عملية تفكير" وسيطة قبل تنفيذ الإجراءات، مما يتيح فحص سلاسل التفكير بدلاً من المدخلات والمخرجات فقط.4 يطبق هذا النهج التفكير المتسلسل للذكاء الاصطناعي على الأنظمة المادية في العالم الحقيقي حيث تؤثر قابلية التفسير على السلامة والقبول التنظيمي.

بنية Alpamayo-R1

يدمج NVIDIA DRIVE Alpamayo-R1 التفكير المتسلسل مع تخطيط المسار—وهو مكون حاسم لتطوير سلامة المركبات ذاتية القيادة في سيناريوهات الطرق المعقدة وتمكين الاستقلالية من المستوى الرابع.5

المواصفات التقنية

المواصفة القيمة
المعاملات 10 مليار (قابلة للتوسع من 0.5 مليار إلى 7 مليار)
ذاكرة VRAM المطلوبة 24 جيجابايت كحد أدنى
زمن الاستدلال 99 مللي ثانية (قادر على العمل في الوقت الفعلي)
بيانات التدريب أكثر من مليار صورة من 80,000 ساعة قيادة
مدخلات الكاميرا 4 كاميرات بمعدل 10 هرتز (أمامية واسعة، أمامية تقريب، يسار متقاطع، يمين متقاطع)
دقة الإدخال 1080×1920 (مخفضة إلى 320×576)

يحقق النموذج تحسناً بنسبة 12% في دقة التخطيط للحالات الصعبة مقارنة بالخطوط الأساسية للمسار فقط، مع انخفاض بنسبة 35% في معدل الخروج عن الطريق و25% في معدل الاقتراب الخطير في المحاكاة ذات الحلقة المغلقة.6

الأساس والتصميم

يُبنى Alpamayo-R1 على نموذج Cosmos-Reason الأساسي من NVIDIA، وتحديداً Cosmos-Reason1-7B المُدرَّب لاحقاً على 3.7 مليون عينة من الأسئلة والأجوبة البصرية لتطوير الحس السليم الفيزيائي والتفكير المُجسَّد.7 تجمع البنية المعيارية بين مُشفِّر رؤية ومحرك تفكير ومُفكِّك مسار قائم على الانتشار لتوليد الخطط في الوقت الفعلي.

يبتعد التصميم عن الشبكات العصبية من طرف إلى طرف التي تربط المدخلات بالمخرجات مباشرة. بدلاً من ذلك، ينتج AR1 تفكيراً وسيطاً يمكن للمراجعين البشريين وأنظمة السلامة تقييمه. تدعم قابلية التفسير كلاً من التكرار في التطوير والامتثال التنظيمي للأنظمة المستقلة.

حجم مجموعة البيانات

تحتوي مجموعة البيانات المصاحبة على 1,727 ساعة من لقطات القيادة من 25 دولة، مما يؤسس تنوعاً جغرافياً وسيناريوهاتياً غير مسبوق لأبحاث القيادة الذاتية.7 يتجاوز الحجم مجموعة Waymo Open Dataset بحوالي 3 أضعاف، مما يوفر بيانات تدريب وتقييم أوسع بكثير.

أصدرت NVIDIA مجموعة فرعية من بيانات التدريب والتقييم عبر مجموعة Physical AI Open Datasets. يُمكِّن إطار AlpaSim مفتوح المصدر الباحثين من تقييم أداء AR1 على معايير قياسية.[^8] يوفر الجمع بين النموذج والبيانات وإطار التقييم بنية تحتية كاملة لأبحاث القيادة الذاتية.

التداعيات على البنية التحتية

تخلق دفعة NVIDIA للذكاء الاصطناعي المادي متطلبات حوسبة محددة تؤثر على تخطيط البنية التحتية.

متطلبات التدريب

تتطلب نماذج الرؤية واللغة والفعل مثل Alpamayo-R1 خطوط أنابيب تدريب متعددة الوسائط تعالج بيانات الفيديو والمستشعرات والنص في وقت واحد. تتطلب مجموعة التدريب التي تضم أكثر من مليار صورة بنية تحتية للتخزين بمقياس البيتابايت. يدفع عبء معالجة الفيديو متطلبات الحوسبة إلى 3-5 أضعاف مقارنة بالنماذج النصية فقط المكافئة.

الحد الأدنى للبنية التحتية للتدريب: - مجموعة وحدات GPU مع توصيلات NVLink/NVSwitch لمزامنة التدرجات بكفاءة - تخزين عالي النطاق الترددي (100+ جيجابايت/ثانية إجمالي) لبث مجموعات بيانات الفيديو - سعة تخزين 10+ بيتابايت لمجموعات بيانات القيادة متعددة الكاميرات - التكلفة التقديرية للتدريب: 500 ألف - 2 مليون دولار للتدريب الكامل من الصفر

يجب على المؤسسات التي تطور أنظمة مستقلة التخطيط لبنية تحتية تدعم أعباء العمل التدريبية كثيفة الفيديو. يتطلب الضبط الدقيق لـ Alpamayo-R1 لمجالات محددة حوسبة أقل بكثير—يمكن تحقيقه على مجموعات من 8 وحدات GPU بذاكرة 24 جيجابايت+ لكل وحدة.

نشر الاستدلال

يعمل استدلال المركبات ذاتية القيادة تحت قيود زمنية صارمة—هدف زمن الاستجابة 99 مللي ثانية يعني أن القرارات يجب أن تكتمل خلال إطار واحد بمعدل 10 هرتز. يوفر NVIDIA DRIVE Orin أداءً بقدرة 254 تيرا عملية في الثانية (TOPS) عند 65-70 واط، مما يُمكِّن من استدلال AR1 في الوقت الفعلي داخل المركبات.[^9]

خيارات النشر الطرفي: | المنصة | الأداء | الطاقة | حالة الاستخدام | |--------|--------|--------|----------------| | DRIVE Orin | 254 TOPS | 65-70W | مركبات الإنتاج | | DRIVE Thor | 1,000+ TOPS | ~100W | أنظمة المستوى الرابع من الجيل التالي | | Jetson AGX Orin | 275 TOPS | 15-60W | التطوير/الروبوتات |

يمتد خط الأنابيب الكامل من مجموعات GPU في مراكز البيانات للتدريب إلى الحوسبة المدمجة في المركبات للنشر. يجب على المؤسسات التخطيط لكلا المستويين من البنية التحتية.

إصدارات NeurIPS الإضافية

قدمت NVIDIA عدة نماذج وأُطر إضافية تدعم تطوير الذكاء الاصطناعي عبر المجالات.

نماذج الذكاء الاصطناعي الرقمي

أصدرت NVIDIA نموذج MultiTalker Parakeet للتعرف على الكلام في بيئات متعددة المتحدثين، ونموذج Sortformer للفصل الذي يحدد ويفصل المتحدثين.[^9] يوفر Nemotron Content Safety Reasoning قدرات إشراف المحتوى مع تفكير صريح.

توسع هذه الإصدارات منظومة NVIDIA البرمجية من الأجهزة إلى مكونات الذكاء الاصطناعي الإنتاجية. يمكن للمؤسسات نشر نماذج NVIDIA على أجهزة NVIDIA مع تكامل محسَّن. يعزز التكامل الرأسي مكانة NVIDIA كمزود لمنصة الذكاء الاصطناعي بدلاً من مجرد بائع أجهزة.

أدوات التطوير

أصدرت NVIDIA مكتبة NeMo Data Designer Library بموجب ترخيص Apache 2.0 مفتوح المصدر، مما يُمكِّن من توليد البيانات الاصطناعية للتدريب.[^10] يوفر NeMo Gym بيئات التعلم المعزز لتطوير الذكاء الاصطناعي. تقلل الأدوات من حواجز تطوير الذكاء الاصطناعي مع خلق ارتباط بمنظومة منصات NVIDIA.

تعالج أدوات البيانات الاصطناعية قيود بيانات التدريب التي تُقيِّد تطوير الذكاء الاصطناعي. يمكن للمؤسسات غير القادرة على جمع بيانات كافية من العالم الحقيقي توليد بدائل اصطناعية. تفيد هذه القدرة بشكل خاص الأنظمة المستقلة حيث ينطوي جمع بيانات العالم الحقيقي على اعتبارات السلامة.

الديناميكيات التنافسية

تؤثر إصدارات نماذج NVIDIA على الموقع التنافسي لكل من الأجهزة وتطوير الذكاء الاصطناعي.

استراتيجية المنصة

من خلال إصدار نماذج قادرة تعمل على النحو الأمثل على أجهزة NVIDIA، تعزز الشركة مكانتها في المنظومة. المؤسسات التي تستخدم نماذج NVIDIA تنشر بشكل طبيعي على وحدات GPU من NVIDIA. يخلق التكامل تكاليف تحويل تتجاوز مواصفات الأجهزة.

تشبه الاستراتيجية نهج Apple في تكامل الأجهزة والبرمجيات الذي يخلق ارتباطاً بالمنصة. تتوسع NVIDIA من الرقائق إلى الأنظمة إلى النماذج، حيث تعزز كل طبقة الطبقات الأخرى. يواجه المنافسون تحديات في مطابقة هذه الحزمة المتكاملة.

التموضع مفتوح المصدر

تُموضع الإصدارات مفتوحة المصدر شركة NVIDIA كمشارك تعاوني في تطوير الذكاء الاصطناعي بدلاً من مجرد بائع تجاري. يدعم هذا التموضع التصورات التنظيمية والعامة مع تزايد التدقيق في الذكاء الاصطناعي. تُظهر النماذج ومجموعات البيانات المفتوحة الالتزام بإتاحة الوصول لمجتمع البحث.

ومع ذلك، يتطلب الأداء الأمثل أجهزة NVIDIA. تُديمقرط الإتاحة مفتوحة المصدر الوصول بينما تتركز عمليات النشر التجارية على منصات NVIDIA. يلتقط النهج فوائد الانفتاح دون التضحية بالميزة التجارية.

إطار القرار: متى تتبنى Alpamayo-R1

السيناريو التوصية المبرر
البحث/الأوساط الأكاديمية التبني فوراً وصول مفتوح المصدر، مجموعة بيانات أكبر 3 مرات من البدائل
شركة مركبات ذاتية ناشئة (قبل الإنتاج) التقييم للضبط الدقيق يقلل وقت التطوير، زمن استجابة مثبت 99 مللي ثانية
مورد من المستوى الأول القياس مقابل الموجود قابلية تفسير التفكير المتسلسل تساعد في الموافقة التنظيمية
مشغل أسطول الانتظار للتحقق الإنتاجي متطلبات الأجهزة (DRIVE Orin) قد تتطلب تحديثات المركبات

الخطوات العملية: 1. التنزيل والتقييم: الوصول إلى Alpamayo-R1-10B من Hugging Face (يتطلب 24 جيجابايت VRAM كحد أدنى) 2. القياس على سيناريوهاتك: استخدام إطار AlpaSim للتقييم المعياري 3. تخطيط البنية التحتية للتخزين: ميزانية 10+ بيتابايت للتطوير الجاد للذكاء الاصطناعي المادي 4. النظر في مسار الضبط الدقيق: مجموعة من 8 وحدات GPU كافية للتكيف مع المجال

الدعم المهني

تستفيد البنية التحتية المعقدة للذكاء الاصطناعي من شركاء التنفيذ ذوي الخبرة.

يدعم 550 مهندساً ميدانياً من Introl المؤسسات التي تنشر البنية التحتية للأنظمة المستقلة وتطبيقات الذكاء الاصطناعي المادي.[^14] احتلت الشركة المرتبة 14 في قائمة Inc. 5000 لعام 2025 بنمو ثلاثي السنوات بنسبة 9,594%.[^15]

يعالج النشر المهني عبر 257 موقعاً عالمياً احتياجات البنية التحتية للذكاء الاصطناعي المادي بغض النظر عن الموقع الجغرافي.[^16] تقلل خبرة التنفيذ من المخاطر مع تبني المؤسسات لقدرات الذكاء الاصطناعي الناشئة.

النقاط الرئيسية

لمطوري المركبات ذاتية القيادة: - يوفر Alpamayo-R1 أول نموذج VLA للتفكير مفتوح على مستوى الصناعة بزمن استجابة 99 مللي ثانية في الوقت الفعلي - يُمكِّن التفكير المتسلسل من قابلية التفسير الصديقة للتنظيم - توفر مجموعة البيانات البالغة 1,727 ساعة (3 أضعاف Waymo) تنوعاً تدريبياً غير مسبوق

لمخططي البنية التحتية: - يتطلب التدريب تخزيناً بمقياس البيتابايت وتوصيلات GPU عالية النطاق الترددي - يمكن تحقيق الضبط الدقيق على مجموعات من 8 وحدات GPU بذاكرة 24 جيجابايت+ - يستهدف النشر الطرفي DRIVE Orin (254 TOPS) أو Thor (1,000+ TOPS)

للتخطيط الاستراتيجي: - يخلق التكامل الرأسي لـ NVIDIA (رقائق ← أنظمة ← نماذج) تكاليف تحويل - تُمكِّن الإتاحة مفتوحة المصدر من التبني لكن الأداء الأمثل يتطلب أجهزة NVIDIA - تختلف البنية التحتية للذكاء الاصطناعي المادي بشكل كبير عن عمليات نشر الذكاء الاصطناعي النصي فقط

التوقعات

تُظهر إصدارات NVIDIA في NeurIPS 2025 طموحاً متوسعاً من الأجهزة إلى نماذج الذكاء الاصطناعي وأدوات التطوير. يُطوِّر Alpamayo-R1 أبحاث القيادة الذاتية مع ترسيخ NVIDIA كمساهم في تطوير الذكاء الاصطناعي المفتوح. تعزز الإصدارات مكانة NVIDIA كمزود متكامل لمنصة الذكاء الاصطناعي.

يجب على المؤسسات التي تبني أنظمة مستقلة أو تطبيقات الذكاء الاصطناعي المادي تقييم إصدارات NeurIPS لتسريع التطوير. يقلل الجمع بين النماذج ومجموعات البيانات والأدوات من عبء التطوير بينما تُمكِّن الإتاحة مفتوحة المصدر من التخصيص لتطبيقات محددة. يجب أن يستوعب تخطيط البنية التحتية متطلبات الحوسبة والبيانات التي تتطلبها هذه التطبيقات المتقدمة.

المراجع

[تم اقتطاع المحتوى للترجمة]


  1. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development for Digital and Physical AI." December 2025. https://blogs.nvidia.com/blog/neurips-open-source-digital-physical-ai/ 

  2. WinBuzzer. "Alpamayo-R1: NVIDIA Releases Vision Reasoning Model and Massive 1,727-Hour Dataset." December 2025. https://winbuzzer.com/2025/12/02/alpamayo-r1-nvidia-releases-vision-reasoning-model-and-massive-1727-hour-dataset-for-autonomous-driving-xcxwbn/ 

  3. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  4. ContentGrip. "New Nvidia AI model brings reasoning to self-driving tech." December 2025. https://www.contentgrip.com/nvidia-alpamayo-r1-ai/ 

  5. TechCrunch. "Nvidia announces new open AI models and tools for autonomous driving research." December 2025. https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/ 

  6. NVIDIA Research. "Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving." October 2025. https://research.nvidia.com/publication/2025-10_alpamayo-r1 

  7. Hugging Face. "nvidia/Alpamayo-R1-10B Model Card." December 2025. https://huggingface.co/nvi 

طلب عرض سعر_

أخبرنا عن مشروعك وسنرد خلال 72 ساعة.

> TRANSMISSION_COMPLETE

تم استلام الطلب_

شكراً لاستفسارك. سيقوم فريقنا بمراجعة طلبك والرد خلال 72 ساعة.

QUEUED FOR PROCESSING