NVIDIA NeurIPS 2025 : Alpamayo-R1 et la poussée de l'IA physique transforment les systèmes autonomes

NVIDIA lance Alpamayo-R1, un modèle de raisonnement de 10B paramètres pour la conduite autonome avec une latence de 99ms et un jeu de données de 1 727 heures couvrant 25 pays.

NVIDIA NeurIPS 2025 : Alpamayo-R1 et la poussée de l'IA physique transforment les systèmes autonomes

NVIDIA NeurIPS 2025 : Alpamayo-R1 et la poussée de l'IA physique transforment les systèmes autonomes

10 décembre 2025 Écrit par Blake Crosley

NVIDIA a présenté DRIVE Alpamayo-R1 (AR1), un modèle d'action vision-langage avec raisonnement de 10 milliards de paramètres pour la mobilité, lors de NeurIPS 2025 à San Diego.1 Cette publication représente la plus grande contribution open source de NVIDIA à la recherche sur la conduite autonome, accompagnée d'un jeu de données de conduite de 1 727 heures couvrant 25 pays—environ trois fois la taille du Waymo Open Dataset.2 Les chercheurs de NVIDIA ont présenté plus de 70 articles et sessions lors de la conférence, signalant l'expansion du rôle de l'entreprise au-delà du matériel vers le développement de modèles d'IA.3

La publication d'Alpamayo-R1 répond à un défi fondamental dans le développement des véhicules autonomes : l'opacité de « boîte noire » de la prise de décision de l'IA. AR1 génère un « processus de pensée » intermédiaire avant d'exécuter des actions, permettant l'inspection des chaînes de raisonnement plutôt que seulement des entrées et sorties.4 L'approche applique le raisonnement IA par chaîne de pensée aux systèmes physiques du monde réel où l'explicabilité affecte la sécurité et l'acceptation réglementaire.

Architecture d'Alpamayo-R1

NVIDIA DRIVE Alpamayo-R1 intègre le raisonnement par chaîne de pensée avec la planification de trajectoire—un composant critique pour faire progresser la sécurité des véhicules autonomes dans des scénarios routiers complexes et permettre l'autonomie de niveau 4.5

Spécifications techniques

Spécification Valeur
Paramètres 10B (évolutif de variantes 0,5B à 7B)
VRAM requise Minimum 24 Go
Latence d'inférence 99ms (capable de temps réel)
Données d'entraînement 1B+ images de 80 000 heures de conduite
Entrées caméra 4 caméras à 10Hz (avant-large, avant-téléobjectif, croisée-gauche, croisée-droite)
Résolution d'entrée 1080x1920 (sous-échantillonnée à 320x576)

Le modèle atteint une amélioration de 12% de la précision de planification sur les cas difficiles par rapport aux lignes de base de trajectoire uniquement, avec une réduction de 35% du taux de sortie de route et une réduction de 25% du taux de rencontres rapprochées en simulation en boucle fermée.6

Fondation et conception

Alpamayo-R1 s'appuie sur le modèle de fondation Cosmos-Reason de NVIDIA, spécifiquement Cosmos-Reason1-7B post-entraîné sur 3,7 millions d'échantillons de Questions-Réponses Visuelles pour développer le sens commun physique et le raisonnement incarné.7 L'architecture modulaire combine un encodeur de vision, un moteur de raisonnement et un décodeur de trajectoire basé sur la diffusion pour la génération de plans en temps réel.

La conception s'éloigne des réseaux neuronaux de bout en bout qui mappent directement les entrées aux sorties. Au lieu de cela, AR1 produit un raisonnement intermédiaire que les examinateurs humains et les systèmes de sécurité peuvent évaluer. L'explicabilité soutient à la fois l'itération de développement et la conformité réglementaire pour les systèmes autonomes.

Échelle du jeu de données

Le jeu de données accompagnant contient 1 727 heures de séquences de conduite de 25 pays, établissant une diversité géographique et de scénarios sans précédent pour la recherche sur la conduite autonome.7 L'échelle dépasse le Waymo Open Dataset d'environ 3 fois, fournissant des données d'entraînement et d'évaluation substantiellement plus larges.

NVIDIA a publié un sous-ensemble des données d'entraînement et d'évaluation via la collection Physical AI Open Datasets. Le framework open source AlpaSim permet aux chercheurs d'évaluer les performances d'AR1 sur des benchmarks standardisés.8 La combinaison du modèle, des données et du framework d'évaluation fournit une infrastructure complète pour la recherche sur la conduite autonome.

Implications pour l'infrastructure

La poussée de NVIDIA vers l'IA physique crée des exigences de calcul spécifiques qui affectent la planification de l'infrastructure.

Exigences d'entraînement

Les modèles vision-langage-action comme Alpamayo-R1 nécessitent des pipelines d'entraînement multimodaux traitant simultanément des données vidéo, de capteurs et de texte. Le corpus d'entraînement de plus d'un milliard d'images nécessite une infrastructure de stockage à l'échelle du pétaoctet. La surcharge de traitement vidéo pousse les exigences de calcul 3 à 5 fois plus haut que les modèles équivalents en texte seul.

Infrastructure d'entraînement minimale : - Cluster GPU avec interconnexions NVLink/NVSwitch pour une synchronisation efficace des gradients - Stockage à haute bande passante (100+ Go/s agrégé) pour le streaming de jeux de données vidéo - Capacité de stockage de 10+ Po pour les jeux de données de conduite multi-caméras - Coût d'entraînement estimé : 500K-2M $ pour un entraînement complet du modèle à partir de zéro

Les organisations développant des systèmes autonomes devraient planifier une infrastructure supportant les charges de travail d'entraînement intensives en vidéo. L'ajustement fin d'Alpamayo-R1 pour des domaines spécifiques nécessite significativement moins de calcul—réalisable sur des clusters de 8 GPU avec 24 Go+ de VRAM par GPU.

Déploiement d'inférence

L'inférence des véhicules autonomes opère sous des contraintes de latence strictes—l'objectif de latence de 99ms signifie que les décisions doivent être complétées en une seule image à 10Hz. NVIDIA DRIVE Orin délivre 254 TOPS à 65-70W, permettant l'inférence AR1 en temps réel dans les véhicules.9

Options de déploiement en périphérie : | Plateforme | Performance | Puissance | Cas d'usage | |----------|-------------|-------|----------| | DRIVE Orin | 254 TOPS | 65-70W | Véhicules de production | | DRIVE Thor | 1 000+ TOPS | ~100W | Systèmes L4 de prochaine génération | | Jetson AGX Orin | 275 TOPS | 15-60W | Développement/robotique |

Le pipeline complet s'étend des clusters GPU de centres de données pour l'entraînement au calcul embarqué dans les véhicules pour le déploiement. Les organisations doivent planifier les deux niveaux d'infrastructure.

Publications NeurIPS supplémentaires

NVIDIA a introduit plusieurs modèles et frameworks supplémentaires soutenant le développement de l'IA dans divers domaines.

Modèles d'IA numérique

NVIDIA a publié MultiTalker Parakeet, un modèle de reconnaissance vocale pour les environnements multi-locuteurs, et Sortformer, un modèle de diarisation qui identifie et sépare les locuteurs.9 Nemotron Content Safety Reasoning fournit des capacités de modération de contenu avec un raisonnement explicite.

Les publications étendent l'écosystème logiciel de NVIDIA au-delà du matériel vers des composants d'IA de production. Les organisations peuvent déployer des modèles NVIDIA sur du matériel NVIDIA avec une intégration optimisée. L'intégration verticale renforce la position de NVIDIA en tant que fournisseur de plateforme d'IA plutôt que simple vendeur de matériel.

Outils de développement

NVIDIA a ouvert en source la NeMo Data Designer Library sous Apache 2.0, permettant la génération de données synthétiques pour l'entraînement.10 NeMo Gym fournit des environnements d'apprentissage par renforcement pour le développement de l'IA. Les outils réduisent les barrières au développement de l'IA tout en créant une dépendance à l'écosystème sur les plateformes NVIDIA.

Les outils pour les données synthétiques répondent aux limitations des données d'entraînement qui contraignent le développement de l'IA. Les organisations incapables de collecter suffisamment de données du monde réel peuvent générer des alternatives synthétiques. Cette capacité bénéficie particulièrement aux systèmes autonomes où la collecte de données du monde réel implique des considérations de sécurité.

Dynamique concurrentielle

Les publications de modèles de NVIDIA affectent le positionnement concurrentiel tant pour le matériel que pour le développement de l'IA.

Stratégie de plateforme

En publiant des modèles performants qui fonctionnent de manière optimale sur le matériel NVIDIA, l'entreprise renforce sa position dans l'écosystème. Les organisations utilisant des modèles NVIDIA déploient naturellement sur des GPU NVIDIA. L'intégration crée des coûts de changement au-delà des spécifications matérielles.

La stratégie est parallèle à l'approche d'Apple d'intégration matériel-logiciel créant une dépendance à la plateforme. NVIDIA s'étend des puces aux systèmes aux modèles, chaque couche renforçant les autres. Les concurrents font face à des défis pour égaler la pile intégrée.

Positionnement open source

Les publications open source positionnent NVIDIA comme participant collaboratif au développement de l'IA plutôt que vendeur purement commercial. Le positionnement soutient la perception réglementaire et publique alors que l'IA fait face à une surveillance accrue. Les modèles et jeux de données ouverts démontrent l'engagement envers l'accès de la communauté de recherche.

Cependant, les performances optimales nécessitent du matériel NVIDIA. La disponibilité open source démocratise l'accès tandis que les déploiements commerciaux se concentrent sur les plateformes NVIDIA. L'approche capture les avantages de l'ouverture sans sacrifier l'avantage commercial.

Cadre de décision : quand adopter Alpamayo-R1

Scénario Recommandation Justification
Recherche/académie Adopter immédiatement Accès open source, jeu de données 3x plus grand que les alternatives
Startup VA (pré-production) Évaluer pour l'ajustement fin Réduit le temps de développement, latence de 99ms prouvée
Fournisseur Tier 1 Comparer à l'existant L'explicabilité par chaîne de pensée aide à l'approbation réglementaire
Opérateur de flotte Attendre la validation en production Les exigences matérielles (DRIVE Orin) peuvent nécessiter des mises à jour des véhicules

Étapes actionnables : 1. Télécharger et évaluer : Accéder à Alpamayo-R1-10B depuis Hugging Face (nécessite minimum 24 Go de VRAM) 2. Benchmarker sur vos scénarios : Utiliser le framework AlpaSim pour une évaluation standardisée 3. Planifier l'infrastructure de stockage : Prévoir 10+ Po pour un développement sérieux d'IA physique 4. Considérer le chemin d'ajustement fin : Cluster de 8 GPU suffisant pour l'adaptation de domaine

Support professionnel

L'infrastructure d'IA complexe bénéficie de partenaires d'implémentation expérimentés.

Les 550 ingénieurs terrain d'Introl soutiennent les organisations déployant l'infrastructure pour les systèmes autonomes et les applications d'IA physique.14 L'entreprise s'est classée #14 sur l'Inc. 5000 2025 avec une croissance de 9 594% sur trois ans.15

Le déploiement professionnel dans 257 emplacements mondiaux répond aux besoins d'infrastructure d'IA physique quelle que soit la géographie.16 L'expertise en implémentation réduit le risque lorsque les organisations adoptent des capacités d'IA émergentes.

Points clés à retenir

Pour les développeurs de véhicules autonomes : - Alpamayo-R1 fournit le premier modèle VLA de raisonnement open source à l'échelle industrielle avec une latence temps réel de 99ms - Le raisonnement par chaîne de pensée permet une explicabilité compatible avec la réglementation - Le jeu de données de 1 727 heures (3x Waymo) offre une diversité d'entraînement sans précédent

Pour les planificateurs d'infrastructure : - L'entraînement nécessite un stockage à l'échelle du pétaoctet et des interconnexions GPU à haute bande passante - L'ajustement fin réalisable sur des clusters de 8 GPU avec 24 Go+ de VRAM - Le déploiement en périphérie cible DRIVE Orin (254 TOPS) ou Thor (1 000+ TOPS)

Pour la planification stratégique : - L'intégration verticale de NVIDIA (puces → systèmes → modèles) crée des coûts de changement - La disponibilité open source permet l'adoption mais les performances optimales nécessitent du matériel NVIDIA - L'infrastructure d'IA physique diffère significativement des déploiements d'IA en texte seul

Perspectives

Les publications NeurIPS 2025 de NVIDIA démontrent une ambition croissante du matériel vers les modèles d'IA et les outils de développement. Alpamayo-R1 fait progresser la recherche sur la conduite autonome tout en établissant NVIDIA comme contributeur au développement ouvert de l'IA. Les publications renforcent la position de NVIDIA en tant que fournisseur intégré de plateforme d'IA.

Les organisations construisant des systèmes autonomes ou des applications d'IA physique devraient évaluer les publications NeurIPS pour l'accélération du développement. La combinaison de modèles, de jeux de données et d'outils réduit la charge de développement tandis que la disponibilité open source permet la personnalisation pour des applications spécifiques. La planification de l'infrastructure devrait accommoder les exigences de calcul et de données que ces applications avancées demandent.

Références


Catégorie : Recherche & Modèles d'IA Urgence : Moyenne — Publications de recherche avec implications pour la planification d'infrastructure Nombre de mots : ~2 000


  1. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development for Digital and Physical AI." December 2025. https://blogs.nvidia.com/blog/neurips-open-source-digital-physical-ai/ 

  2. WinBuzzer. "Alpamayo-R1: NVIDIA Releases Vision Reasoning Model and Massive 1,727-Hour Dataset." December 2025. https://winbuzzer.com/2025/12/02/alpamayo-r1-nvidia-releases-vision-reasoning-model-and-massive-1727-hour-dataset-for-autonomous-driving-xcxwbn/ 

  3. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  4. ContentGrip. "New Nvidia AI model brings reasoning to self-driving tech." December 2025. https://www.contentgrip.com/nvidia-alpamayo-r1-ai/ 

  5. TechCrunch. "Nvidia announces new open AI models and tools for autonomous driving research." December 2025. https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/ 

  6. NVIDIA Research. "Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving." October 2025. https://research.nvidia.com/publication/2025-10_alpamayo-r1 

  7. Hugging Face. "nvidia/Alpamayo-R1-10B Model Card." December 2025. https://huggingface.co/nvidia/Alpamayo-R1-10B 

  8. NVIDIA Developer Forums. "Physical AI at NeurIPS 2025." December 2025. https://forums.developer.nvidia.com/t/physical-ai-at-neurips-2025-annoucements/353373 

  9. NVIDIA Developer. "DRIVE AGX Autonomous Vehicle Development Platform." 2025. https://developer.nvidia.com/drive/agx 

  10. MLQ AI. "NVIDIA Unveils Alpamayo-R1 and New AI Tools for Speech, Safety and Autonomous Driving." December 2025. https://mlq.ai/news/nvidia-unveils-alpamayo-r1-and-new-ai-tools-for-speech-safety-and-autonomous-driving-at-neurips-2025/ 

  11. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  12. ArXiv. "Alpamayo-R1: Bridging Reasoning and Action Prediction." 2511.00088. https://arxiv.org/abs/2511.00088 

  13. NVIDIA Blog. "Next-Gen Vehicles Built on NVIDIA DRIVE Orin." 2025. https://blogs.nvidia.com/blog/new-era-transportation-drive-orin/ 

  14. Introl. "Company Overview." Introl. 2025. https://introl.com 

  15. Inc. "Inc. 5000 2025." Inc. Magazine. 2025. 

  16. Introl. "Coverage Area." Introl. 2025. https://introl.com/coverage-area 

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING