NVIDIA NeurIPS 2025: Alpamayo-R1 ودفعة الذكاء الاصطناعي الفيزيائي تعيد تشكيل الأنظمة المستقلة

NVIDIA تطلق Alpamayo-R1، نموذج استدلال بـ 10 مليار معامل للقيادة الذاتية بزمن استجابة 99 مللي ثانية ومجموعة بيانات تمتد 1,727 ساعة تغطي 25 دولة.

NVIDIA NeurIPS 2025: Alpamayo-R1 ودفعة الذكاء الاصطناعي الفيزيائي تعيد تشكيل الأنظمة المستقلة

NVIDIA NeurIPS 2025: Alpamayo-R1 ودفعة الذكاء الاصطناعي الفيزيائي تعيد تشكيل الأنظمة المستقلة

10 ديسمبر 2025 بقلم Blake Crosley

أطلقت NVIDIA نموذج DRIVE Alpamayo-R1 (AR1)، وهو نموذج عمل لغوي بصري للاستدلال بـ 10 مليار معامل للتنقل، في مؤتمر NeurIPS 2025 في سان دييغو.1 يمثل هذا الإطلاق أكبر مساهمة مفتوحة المصدر من NVIDIA لأبحاث القيادة الذاتية، مصحوبة بمجموعة بيانات قيادة تمتد 1,727 ساعة وتغطي 25 دولة - أي ما يقرب من ثلاثة أضعاف حجم مجموعة بيانات Waymo المفتوحة.2 قدم باحثو NVIDIA أكثر من 70 ورقة بحثية وجلسة في المؤتمر، مما يشير إلى توسع دور الشركة من الأجهزة إلى تطوير نماذج الذكاء الاصطناعي.3

يعالج إطلاق Alpamayo-R1 تحدياً جوهرياً في تطوير المركبات المستقلة: غموض "الصندوق الأسود" في صنع قرارات الذكاء الاصطناعي. ينتج AR1 "عملية تفكير" وسيطة قبل تنفيذ الإجراءات، مما يتيح فحص سلاسل الاستدلال بدلاً من المدخلات والمخرجات فقط.4 يطبق هذا النهج استدلال الذكاء الاصطناعي بسلسلة الأفكار على الأنظمة الفيزيائية في العالم الحقيقي حيث تؤثر قابلية التفسير على السلامة والقبول التنظيمي.

هندسة Alpamayo-R1

يدمج NVIDIA DRIVE Alpamayo-R1 الاستدلال بسلسلة الأفكار مع تخطيط المسار - وهو مكون حاسم لتعزيز سلامة المركبات المستقلة في سيناريوهات الطرق المعقدة وتمكين الاستقلالية من المستوى الرابع.5

المواصفات التقنية

المواصفة القيمة
المعاملات 10 مليار (قابلة للتوسيع من 0.5 مليار إلى 7 مليار)
ذاكرة VRAM المطلوبة 24 جيجابايت كحد أدنى
زمن استجابة الاستنتاج 99 مللي ثانية (قادر على الوقت الحقيقي)
بيانات التدريب أكثر من مليار صورة من 80,000 ساعة قيادة
مدخلات الكاميرا 4 كاميرات بمعدل 10 هرتز (أمامية واسعة، أمامية مقربة، متقاطعة يسار، متقاطعة يمين)
دقة الإدخال 1080×1920 (مخفضة إلى 320×576)

يحقق النموذج تحسناً بنسبة 12% في دقة التخطيط للحالات الصعبة مقارنة بخطوط الأساس للمسار فقط، مع انخفاض بنسبة 35% في معدل الخروج عن الطريق وانخفاض بنسبة 25% في معدل المواجهات القريبة في المحاكاة ذات الحلقة المغلقة.6

الأساس والتصميم

يبني Alpamayo-R1 على نموذج الأساس Cosmos-Reason من NVIDIA، وتحديداً Cosmos-Reason1-7B المدرب لاحقاً على 3.7 مليون عينة من الأسئلة والأجوبة المرئية لتطوير الحس السليم الفيزيائي والاستدلال المجسد.7 تجمع الهندسة المعمارية المعيارية بين مشفر الرؤية ومحرك الاستدلال ومفكك تشفير المسار القائم على الانتشار لتوليد الخطط في الوقت الحقيقي.

يبتعد التصميم عن الشبكات العصبية من طرف إلى طرف التي تربط المدخلات مباشرة بالمخرجات. بدلاً من ذلك، ينتج AR1 استدلالاً وسيطاً يمكن للمراجعين البشريين وأنظمة السلامة تقييمه. تدعم قابلية التفسير كلاً من تكرار التطوير والامتثال التنظيمي للأنظمة المستقلة.

حجم مجموعة البيانات

تحتوي مجموعة البيانات المصاحبة على 1,727 ساعة من لقطات القيادة من 25 دولة، مما يؤسس تنوعاً جغرافياً وسيناريوياً غير مسبوق لأبحاث القيادة الذاتية.7 يتجاوز الحجم مجموعة بيانات Waymo المفتوحة بحوالي 3 أضعاف، مما يوفر بيانات تدريب وتقييم أوسع بكثير.

أطلقت NVIDIA مجموعة فرعية من بيانات التدريب والتقييم من خلال مجموعة Physical AI Open Datasets. يتيح إطار العمل مفتوح المصدر AlpaSim للباحثين تقييم أداء AR1 على معايير موحدة.8 يوفر الجمع بين النموذج والبيانات وإطار التقييم بنية تحتية كاملة لأبحاث القيادة الذاتية.

الآثار على البنية التحتية

تخلق دفعة NVIDIA للذكاء الاصطناعي الفيزيائي متطلبات حوسبة محددة تؤثر على تخطيط البنية التحتية.

متطلبات التدريب

تتطلب نماذج الرؤية-اللغة-العمل مثل Alpamayo-R1 خطوط أنابيب تدريب متعددة الوسائط تعالج بيانات الفيديو والمستشعرات والنص في وقت واحد. يتطلب مجموع التدريب الذي يزيد عن مليار صورة بنية تحتية للتخزين على نطاق البيتابايت. يدفع الحمل الزائد لمعالجة الفيديو متطلبات الحوسبة إلى 3-5 أضعاف مقارنة بالنماذج المكافئة للنص فقط.

الحد الأدنى للبنية التحتية للتدريب: - مجموعة وحدات GPU مع توصيلات NVLink/NVSwitch للمزامنة الفعالة للتدرجات - تخزين عالي النطاق الترددي (أكثر من 100 جيجابايت/ثانية إجمالي) لبث مجموعات بيانات الفيديو - سعة تخزين أكثر من 10 بيتابايت لمجموعات بيانات القيادة متعددة الكاميرات - تكلفة التدريب المقدرة: 500 ألف - 2 مليون دولار للتدريب الكامل للنموذج من الصفر

يجب على المنظمات التي تطور أنظمة مستقلة التخطيط لبنية تحتية تدعم أعباء العمل التدريبية المكثفة للفيديو. يتطلب الضبط الدقيق لـ Alpamayo-R1 لمجالات محددة حوسبة أقل بكثير - يمكن تحقيقه على مجموعات من 8 وحدات GPU بذاكرة VRAM أكثر من 24 جيجابايت لكل وحدة.

نشر الاستنتاج

يعمل استنتاج المركبات المستقلة تحت قيود صارمة لزمن الاستجابة - يعني هدف زمن الاستجابة البالغ 99 مللي ثانية أن القرارات يجب أن تكتمل خلال إطار واحد عند 10 هرتز. يوفر NVIDIA DRIVE Orin أداءً يبلغ 254 TOPS عند 65-70 واط، مما يتيح استنتاج AR1 في الوقت الحقيقي في المركبات.9

خيارات النشر الطرفي: | المنصة | الأداء | الطاقة | حالة الاستخدام | |----------|-------------|-------|----------| | DRIVE Orin | 254 TOPS | 65-70W | مركبات الإنتاج | | DRIVE Thor | أكثر من 1,000 TOPS | ~100W | أنظمة L4 من الجيل القادم | | Jetson AGX Orin | 275 TOPS | 15-60W | التطوير/الروبوتات |

يمتد خط الأنابيب الكامل من مجموعات GPU في مراكز البيانات للتدريب إلى الحوسبة المدمجة في المركبات للنشر. يجب على المنظمات التخطيط لكلا مستويي البنية التحتية.

إصدارات NeurIPS الإضافية

قدمت NVIDIA العديد من النماذج والأطر الإضافية التي تدعم تطوير الذكاء الاصطناعي عبر المجالات.

نماذج الذكاء الاصطناعي الرقمي

أطلقت NVIDIA نموذج MultiTalker Parakeet للتعرف على الكلام في بيئات متعددة المتحدثين، ونموذج Sortformer للتمييز الذي يحدد ويفصل المتحدثين.9 يوفر Nemotron Content Safety Reasoning قدرات إدارة المحتوى مع استدلال صريح.

توسع هذه الإصدارات نظام NVIDIA البيئي البرمجي من الأجهزة إلى مكونات الذكاء الاصطناعي الإنتاجية. يمكن للمنظمات نشر نماذج NVIDIA على أجهزة NVIDIA مع تكامل محسن. يعزز التكامل الرأسي موقف NVIDIA كمزود لمنصة الذكاء الاصطناعي بدلاً من بائع أجهزة بحت.

أدوات التطوير

أطلقت NVIDIA مكتبة NeMo Data Designer Library مفتوحة المصدر بموجب Apache 2.0، مما يتيح توليد البيانات الاصطناعية للتدريب.10 يوفر NeMo Gym بيئات التعلم المعزز لتطوير الذكاء الاصطناعي. تقلل الأدوات من الحواجز أمام تطوير الذكاء الاصطناعي مع خلق ارتباط بالنظام البيئي على منصات NVIDIA.

تعالج أدوات البيانات الاصطناعية قيود بيانات التدريب التي تقيد تطوير الذكاء الاصطناعي. يمكن للمنظمات غير القادرة على جمع بيانات كافية من العالم الحقيقي توليد بدائل اصطناعية. تفيد هذه القدرة بشكل خاص الأنظمة المستقلة حيث يتضمن جمع بيانات العالم الحقيقي اعتبارات السلامة.

الديناميكيات التنافسية

تؤثر إصدارات نماذج NVIDIA على الموقف التنافسي لكل من الأجهزة وتطوير الذكاء الاصطناعي.

استراتيجية المنصة

من خلال إطلاق نماذج قادرة تعمل بشكل مثالي على أجهزة NVIDIA، تعزز الشركة موقفها في النظام البيئي. المنظمات التي تستخدم نماذج NVIDIA تنشر بشكل طبيعي على وحدات GPU من NVIDIA. يخلق التكامل تكاليف تبديل تتجاوز مواصفات الأجهزة.

تتوازى الاستراتيجية مع نهج Apple في تكامل الأجهزة والبرمجيات الذي يخلق ارتباطاً بالمنصة. تمتد NVIDIA من الرقائق إلى الأنظمة إلى النماذج، مع تعزيز كل طبقة للأخرى. يواجه المنافسون تحديات في مطابقة الحزمة المتكاملة.

موقف المصدر المفتوح

تضع إصدارات المصدر المفتوح NVIDIA كمشارك تعاوني في تطوير الذكاء الاصطناعي بدلاً من بائع تجاري بحت. يدعم هذا الموقف الإدراك التنظيمي والعام حيث يواجه الذكاء الاصطناعي تدقيقاً متزايداً. تظهر النماذج ومجموعات البيانات المفتوحة الالتزام بوصول مجتمع البحث.

ومع ذلك، يتطلب الأداء الأمثل أجهزة NVIDIA. يوفر توفر المصدر المفتوح ديمقراطية الوصول بينما تتركز عمليات النشر التجارية على منصات NVIDIA. يلتقط النهج فوائد الانفتاح دون التضحية بالميزة التجارية.

إطار القرار: متى يتم اعتماد Alpamayo-R1

السيناريو التوصية المبرر
البحث/الأكاديمي الاعتماد فوراً وصول مفتوح المصدر، مجموعة بيانات أكبر بـ 3 مرات من البدائل
شركة ناشئة للمركبات المستقلة (ما قبل الإنتاج) التقييم للضبط الدقيق يقلل وقت التطوير، زمن استجابة مثبت 99 مللي ثانية
مورد من المستوى الأول المقارنة مع الموجود قابلية تفسير سلسلة الأفكار تساعد في الموافقة التنظيمية
مشغل الأسطول انتظار التحقق الإنتاجي متطلبات الأجهزة (DRIVE Orin) قد تتطلب تحديثات للمركبات

الخطوات القابلة للتنفيذ: 1. التنزيل والتقييم: الوصول إلى Alpamayo-R1-10B من Hugging Face (يتطلب 24 جيجابايت VRAM كحد أدنى) 2. المقارنة في سيناريوهاتك: استخدام إطار AlpaSim للتقييم الموحد 3. تخطيط البنية التحتية للتخزين: تخصيص ميزانية أكثر من 10 بيتابايت للتطوير الجاد للذكاء الاصطناعي الفيزيائي 4. النظر في مسار الضبط الدقيق: مجموعة من 8 وحدات GPU كافية للتكيف مع المجال

الدعم المهني

تستفيد البنية التحتية المعقدة للذكاء الاصطناعي من شركاء التنفيذ ذوي الخبرة.

يدعم 550 مهندساً ميدانياً من Introl المنظمات التي تنشر البنية التحتية للأنظمة المستقلة وتطبيقات الذكاء الاصطناعي الفيزيائي.14 احتلت الشركة المرتبة 14 في قائمة Inc. 5000 لعام 2025 بنمو قدره 9,594% على مدى ثلاث سنوات.15

يلبي النشر المهني عبر 257 موقعاً عالمياً احتياجات البنية التحتية للذكاء الاصطناعي الفيزيائي بغض النظر عن الجغرافيا.16 تقلل خبرة التنفيذ من المخاطر مع اعتماد المنظمات لقدرات الذكاء الاصطناعي الناشئة.

النقاط الرئيسية

لمطوري المركبات المستقلة: - يوفر Alpamayo-R1 أول نموذج VLA للاستدلال مفتوح المصدر على نطاق صناعي مع زمن استجابة 99 مللي ثانية في الوقت الحقيقي - يتيح الاستدلال بسلسلة الأفكار قابلية التفسير الملائمة للتنظيم - توفر مجموعة البيانات البالغة 1,727 ساعة (3 أضعاف Waymo) تنوعاً تدريبياً غير مسبوق

لمخططي البنية التحتية: - يتطلب التدريب تخزيناً على نطاق البيتابايت وتوصيلات GPU عالية النطاق الترددي - الضبط الدقيق قابل للتحقيق على مجموعات من 8 وحدات GPU بذاكرة VRAM أكثر من 24 جيجابايت - يستهدف النشر الطرفي DRIVE Orin (254 TOPS) أو Thor (أكثر من 1,000 TOPS)

للتخطيط الاستراتيجي: - يخلق التكامل الرأسي لـ NVIDIA (الرقائق ← الأنظمة ← النماذج) تكاليف التبديل - يتيح توفر المصدر المفتوح الاعتماد لكن الأداء الأمثل يتطلب أجهزة NVIDIA - تختلف البنية التحتية للذكاء الاصطناعي الفيزيائي بشكل كبير عن عمليات نشر الذكاء الاصطناعي للنص فقط

التوقعات

تُظهر إصدارات NVIDIA في NeurIPS 2025 طموحاً متوسعاً من الأجهزة إلى نماذج الذكاء الاصطناعي وأدوات التطوير. يدفع Alpamayo-R1 أبحاث القيادة الذاتية مع ترسيخ NVIDIA كمساهم في تطوير الذكاء الاصطناعي المفتوح. تعزز الإصدارات موقف NVIDIA كمزود متكامل لمنصة الذكاء الاصطناعي.

يجب على المنظمات التي تبني أنظمة مستقلة أو تطبيقات الذكاء الاصطناعي الفيزيائي تقييم إصدارات NeurIPS لتسريع التطوير. يقلل الجمع بين النماذج ومجموعات البيانات والأدوات من عبء التطوير بينما يتيح توفر المصدر المفتوح التخصيص لتطبيقات محددة. يجب أن يستوعب تخطيط البنية التحتية متطلبات الحوسبة والبيانات التي تتطلبها هذه التطبيقات المتقدمة.

المراجع


الفئة: أبحاث ونماذج الذكاء الاصطناعي الإلحاح: متوسط — إصدارات بحثية مع آثار على تخطيط البنية التحتية عدد الكلمات: ~2,000


  1. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development for Digital and Physical AI." December 2025. https://blogs.nvidia.com/blog/neurips-open-source-digital-physical-ai/ 

  2. WinBuzzer. "Alpamayo-R1: NVIDIA Releases Vision Reasoning Model and Massive 1,727-Hour Dataset." December 2025. https://winbuzzer.com/2025/12/02/alpamayo-r1-nvidia-releases-vision-reasoning-model-and-massive-1727-hour-dataset-for-autonomous-driving-xcxwbn/ 

  3. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  4. ContentGrip. "New Nvidia AI model brings reasoning to self-driving tech." December 2025. https://www.contentgrip.com/nvidia-alpamayo-r1-ai/ 

  5. TechCrunch. "Nvidia announces new open AI models and tools for autonomous driving research." December 2025. https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/ 

  6. NVIDIA Research. "Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving." October 2025. https://research.nvidia.com/publication/2025-10_alpamayo-r1 

  7. Hugging Face. "nvidia/Alpamayo-R1-10B Model Card." December 2025. https://huggingface.co/nvidia/Alpamayo-R1-10B 

  8. NVIDIA Developer Forums. "Physical AI at NeurIPS 2025." December 2025. https://forums.developer.nvidia.com/t/physical-ai-at-neurips-2025-annoucements/353373 

  9. NVIDIA Developer. "DRIVE AGX Autonomous Vehicle Development Platform." 2025. https://developer.nvidia.com/drive/agx 

  10. MLQ AI. "NVIDIA Unveils Alpamayo-R1 and New AI Tools for Speech, Safety and Autonomous Driving." December 2025. https://mlq.ai/news/nvidia-unveils-alpamayo-r1-and-new-ai-tools-for-speech-safety-and-autonomous-driving-at-neurips-2025/ 

  11. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  12. ArXiv. "Alpamayo-R1: Bridging Reasoning and Action Prediction." 2511.00088. https://arxiv.org/abs/2511.00088 

  13. NVIDIA Blog. "Next-Gen Vehicles Built on NVIDIA DRIVE Orin." 2025. https://blogs.nvidia.com/blog/new-era-transportation-drive-orin/ 

  14. Introl. "Company Overview." Introl. 2025. https://introl.com 

  15. Inc. "Inc. 5000 2025." Inc. Magazine. 2025. 

  16. Introl. "Coverage Area." Introl. 2025. https://introl.com/coverage-area 

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING