NVIDIA NeurIPS 2025:Alpamayo-R1と物理AIの推進が自律システムを再形成

NVIDIAがAlpamayo-R1をリリース。99msのレイテンシと25カ国にわたる1,727時間のデータセットを備えた100億パラメータの自動運転向け推論モデル。

NVIDIA NeurIPS 2025:Alpamayo-R1と物理AIの推進が自律システムを再形成

NVIDIA NeurIPS 2025:Alpamayo-R1と物理AIの推進が自律システムを再形成

2025年12月10日 著者:Blake Crosley

NVIDIAは、サンディエゴで開催されたNeurIPS 2025において、モビリティ向けの100億パラメータの推論ビジョン言語アクションモデルであるDRIVE Alpamayo-R1(AR1)を発表しました。1このリリースは、25カ国にわたる1,727時間の運転データセット(Waymo Open Datasetの約3倍の規模)を伴う、NVIDIAによる自動運転研究への最大のオープンソース貢献を表しています。2NVIDIAの研究者は会議で70以上の論文とセッションを発表し、ハードウェアを超えたAIモデル開発への同社の役割拡大を示しました。3

Alpamayo-R1のリリースは、自動運転車開発における根本的な課題、すなわちAI意思決定の「ブラックボックス」の不透明性に対処しています。AR1はアクションを実行する前に中間的な「思考プロセス」を生成し、入力と出力だけでなく推論チェーンの検査を可能にします。4このアプローチは、説明可能性が安全性と規制上の受容性に影響を与える実世界の物理システムにチェーン・オブ・ソートAI推論を適用します。

Alpamayo-R1のアーキテクチャ

NVIDIA DRIVE Alpamayo-R1は、チェーン・オブ・ソート推論と経路計画を統合しています。これは、複雑な道路シナリオにおける自動運転車の安全性を向上させ、レベル4の自律性を実現するための重要なコンポーネントです。5

技術仕様

仕様
パラメータ 100億(5億から70億のバリアントまでスケーラブル)
必要VRAM 最小24GB
推論レイテンシ 99ms(リアルタイム対応)
学習データ 80,000時間の運転からの10億以上の画像
カメラ入力 10Hzで4カメラ(フロントワイド、フロントテレ、クロス左、クロス右)
入力解像度 1080x1920(320x576にダウンサンプリング)

このモデルは、軌道のみのベースラインと比較して、困難なケースで計画精度が12%向上し、クローズドループシミュレーションでオフロード率が35%削減、ニアミス率が25%削減されました。6

基盤と設計

Alpamayo-R1は、NVIDIAのCosmos-Reason基盤モデル、具体的には物理的な常識と身体化された推論を開発するために370万のVisual Question Answeringサンプルで後学習されたCosmos-Reason1-7Bを基に構築されています。7モジュラーアーキテクチャは、リアルタイムのプラン生成のためのビジョンエンコーダー、推論エンジン、拡散ベースの軌道デコーダーを組み合わせています。

この設計は、入力を直接出力にマッピングするエンドツーエンドのニューラルネットワークから離れています。代わりに、AR1は人間のレビュアーや安全システムが評価できる中間推論を生成します。説明可能性は、自律システムの開発イテレーションと規制コンプライアンスの両方をサポートします。

データセットの規模

付随するデータセットには25カ国からの1,727時間の運転映像が含まれており、自動運転研究のための前例のない地理的およびシナリオの多様性を確立しています。7このスケールはWaymo Open Datasetを約3倍上回り、大幅に広範なトレーニングおよび評価データを提供します。

NVIDIAは、Physical AI Open Datasetsコレクションを通じてトレーニングおよび評価データのサブセットをリリースしました。オープンソースのAlpaSimフレームワークにより、研究者は標準化されたベンチマークでAR1のパフォーマンスを評価できます。8モデル、データ、評価フレームワークの組み合わせは、自動運転研究のための完全なインフラストラクチャを提供します。

インフラストラクチャへの影響

NVIDIAの物理AIへの推進は、インフラストラクチャ計画に影響を与える特定のコンピュート要件を生み出しています。

トレーニング要件

Alpamayo-R1のようなビジョン・言語・アクションモデルは、ビデオ、センサー、テキストデータを同時に処理するマルチモーダルトレーニングパイプラインを必要とします。10億以上の画像のトレーニングコーパスには、ペタバイト規模のストレージインフラストラクチャが必要です。ビデオ処理のオーバーヘッドにより、コンピュート要件は同等のテキストのみのモデルの3〜5倍に達します。

最小トレーニングインフラストラクチャ: - 効率的な勾配同期のためのNVLink/NVSwitch相互接続を備えたGPUクラスター - ビデオデータセットストリーミング用の高帯域幅ストレージ(100+ GB/s集約) - マルチカメラ運転データセット用の10+ PBストレージ容量 - 推定トレーニングコスト:フルモデルトレーニングで50万〜200万ドル

自律システムを開発する組織は、ビデオ集約型のトレーニングワークロードをサポートするインフラストラクチャを計画する必要があります。特定のドメイン向けにAlpamayo-R1をファインチューニングする場合、必要なコンピュートは大幅に少なくなり、GPUあたり24GB以上のVRAMを備えた8-GPUクラスターで達成可能です。

推論デプロイメント

自動運転車の推論は厳格なレイテンシ制約の下で動作します。99msのレイテンシ目標は、10Hzで単一フレーム内に決定を完了する必要があることを意味します。NVIDIA DRIVE Orinは65-70Wで254 TOPSを提供し、車両内でのAR1リアルタイム推論を可能にします。9

エッジデプロイメントオプション: | プラットフォーム | パフォーマンス | 電力 | ユースケース | |----------|-------------|-------|----------| | DRIVE Orin | 254 TOPS | 65-70W | 量産車両 | | DRIVE Thor | 1,000+ TOPS | ~100W | 次世代L4システム | | Jetson AGX Orin | 275 TOPS | 15-60W | 開発/ロボティクス |

完全なパイプラインは、トレーニング用のデータセンターGPUクラスターからデプロイメント用の組み込み車両コンピュートまで及びます。組織は両方のインフラストラクチャ階層を計画する必要があります。

NeurIPSでの追加リリース

NVIDIAは、さまざまなドメインにわたるAI開発をサポートする追加のモデルとフレームワークを導入しました。

デジタルAIモデル

NVIDIAは、マルチスピーカー環境向けの音声認識モデルMultiTalker Parakeetと、話者を識別・分離するダイアライゼーションモデルSortformerをリリースしました。9Nemotron Content Safety Reasoningは、明示的な推論を伴うコンテンツモデレーション機能を提供します。

これらのリリースは、NVIDIAのソフトウェアエコシステムをハードウェアを超えて本番AIコンポーネントに拡張しています。組織は、最適化された統合でNVIDIAハードウェア上にNVIDIAモデルをデプロイできます。垂直統合は、純粋なハードウェアベンダーではなくAIプラットフォームプロバイダーとしてのNVIDIAのポジションを強化します。

開発ツール

NVIDIAは、トレーニング用の合成データ生成を可能にするNeMo Data Designer LibraryをApache 2.0でオープンソース化しました。10NeMo Gymは、AI開発用の強化学習環境を提供します。これらのツールは、NVIDIAプラットフォームへのエコシステムロックインを作成しながら、AI開発の障壁を下げます。

合成データ用のツールは、AI開発を制約するトレーニングデータの制限に対処しています。十分な実世界データを収集できない組織は、合成代替物を生成できます。この機能は、実世界データ収集に安全上の考慮が伴う自律システムに特に有益です。

競争ダイナミクス

NVIDIAのモデルリリースは、ハードウェアとAI開発の両方の競争ポジショニングに影響を与えます。

プラットフォーム戦略

NVIDIAハードウェアで最適に動作する有能なモデルをリリースすることで、同社はエコシステムのポジションを強化しています。NVIDIAモデルを使用する組織は、自然とNVIDIA GPUにデプロイします。この統合は、ハードウェア仕様を超えたスイッチングコストを生み出します。

この戦略は、プラットフォームロックインを作成するハードウェア・ソフトウェア統合というAppleのアプローチと並行しています。NVIDIAはチップからシステム、モデルへと拡張し、各レイヤーが他のレイヤーを強化しています。競合他社は統合スタックへのマッチングに課題を抱えています。

オープンソースポジショニング

オープンソースリリースは、純粋な商業ベンダーではなくAI開発への協力的な参加者としてNVIDIAを位置付けています。このポジショニングは、AIが監視の強化に直面する中で、規制および公共の認識をサポートします。オープンなモデルとデータセットは、研究コミュニティへのアクセスへのコミットメントを示しています。

ただし、最適なパフォーマンスにはNVIDIAハードウェアが必要です。オープンソースの可用性はアクセスを民主化しますが、商用デプロイメントはNVIDIAプラットフォームに集中しています。このアプローチは、商業的優位性を犠牲にすることなくオープン性の利点を獲得しています。

意思決定フレームワーク:Alpamayo-R1をいつ採用するか

シナリオ 推奨 理由
研究/学術 即時採用 オープンソースアクセス、代替の3倍のデータセット
AVスタートアップ(プリプロダクション) ファインチューニングを評価 開発時間を短縮、実証済みの99msレイテンシ
ティア1サプライヤー 既存と比較 チェーン・オブ・ソートの説明可能性が規制承認を支援
フリートオペレーター 本番検証を待つ ハードウェア要件(DRIVE Orin)に車両アップデートが必要な場合あり

実行可能なステップ: 1. ダウンロードと評価:Hugging FaceからAlpamayo-R1-10Bにアクセス(最小24GB VRAMが必要) 2. シナリオでのベンチマーク:標準化された評価にAlpaSimフレームワークを使用 3. ストレージインフラストラクチャの計画:本格的な物理AI開発に10+ PBを予算化 4. ファインチューニングパスの検討:8-GPUクラスターでドメイン適応が可能

プロフェッショナルサポート

複雑なAIインフラストラクチャは、経験豊富な実装パートナーから恩恵を受けます。

Introlの550人のフィールドエンジニアは、自律システムと物理AIアプリケーション向けのインフラストラクチャを展開する組織をサポートしています。14同社は2025年のInc. 5000で14位にランクインし、3年間で9,594%の成長を達成しました。15

257のグローバルロケーションでのプロフェッショナルなデプロイメントは、地理に関係なく物理AIインフラストラクチャのニーズに対応します。16実装の専門知識は、組織が新興のAI機能を採用する際のリスクを軽減します。

主なポイント

自動運転車開発者向け: - Alpamayo-R1は、99msのリアルタイムレイテンシを備えた最初のオープンな産業規模の推論VLAモデルを提供 - チェーン・オブ・ソート推論により、規制に優しい説明可能性を実現 - 1,727時間のデータセット(Waymoの3倍)が前例のないトレーニングの多様性を提供

インフラストラクチャプランナー向け: - トレーニングにはペタバイト規模のストレージと高帯域幅GPU相互接続が必要 - 24GB以上のVRAMを備えた8-GPUクラスターでファインチューニングが可能 - エッジデプロイメントはDRIVE Orin(254 TOPS)またはThor(1,000+ TOPS)をターゲット

戦略計画向け: - NVIDIAの垂直統合(チップ→システム→モデル)がスイッチングコストを生み出す - オープンソースの可用性は採用を可能にするが、最適なパフォーマンスにはNVIDIAハードウェアが必要 - 物理AIインフラストラクチャは、テキストのみのAIデプロイメントとは大きく異なる

見通し

NVIDIAのNeurIPS 2025リリースは、ハードウェアからAIモデルと開発ツールへの野心の拡大を示しています。Alpamayo-R1は自動運転研究を推進すると同時に、オープンなAI開発への貢献者としてNVIDIAを確立しています。これらのリリースは、統合AIプラットフォームプロバイダーとしてのNVIDIAのポジションを強化しています。

自律システムや物理AIアプリケーションを構築する組織は、開発加速のためにNeurIPSリリースを評価する必要があります。モデル、データセット、ツールの組み合わせが開発負担を軽減する一方、オープンソースの可用性が特定のアプリケーション向けのカスタマイズを可能にします。インフラストラクチャ計画は、これらの高度なアプリケーションが要求するコンピュートとデータ要件に対応する必要があります。

参考文献


カテゴリ: AI研究とモデル 緊急性: 中 — インフラストラクチャ計画への影響を伴う研究リリース ワード数: 約2,000


  1. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development for Digital and Physical AI." December 2025. https://blogs.nvidia.com/blog/neurips-open-source-digital-physical-ai/ 

  2. WinBuzzer. "Alpamayo-R1: NVIDIA Releases Vision Reasoning Model and Massive 1,727-Hour Dataset." December 2025. https://winbuzzer.com/2025/12/02/alpamayo-r1-nvidia-releases-vision-reasoning-model-and-massive-1727-hour-dataset-for-autonomous-driving-xcxwbn/ 

  3. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  4. ContentGrip. "New Nvidia AI model brings reasoning to self-driving tech." December 2025. https://www.contentgrip.com/nvidia-alpamayo-r1-ai/ 

  5. TechCrunch. "Nvidia announces new open AI models and tools for autonomous driving research." December 2025. https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/ 

  6. NVIDIA Research. "Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving." October 2025. https://research.nvidia.com/publication/2025-10_alpamayo-r1 

  7. Hugging Face. "nvidia/Alpamayo-R1-10B Model Card." December 2025. https://huggingface.co/nvidia/Alpamayo-R1-10B 

  8. NVIDIA Developer Forums. "Physical AI at NeurIPS 2025." December 2025. https://forums.developer.nvidia.com/t/physical-ai-at-neurips-2025-annoucements/353373 

  9. NVIDIA Developer. "DRIVE AGX Autonomous Vehicle Development Platform." 2025. https://developer.nvidia.com/drive/agx 

  10. MLQ AI. "NVIDIA Unveils Alpamayo-R1 and New AI Tools for Speech, Safety and Autonomous Driving." December 2025. https://mlq.ai/news/nvidia-unveils-alpamayo-r1-and-new-ai-tools-for-speech-safety-and-autonomous-driving-at-neurips-2025/ 

  11. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  12. ArXiv. "Alpamayo-R1: Bridging Reasoning and Action Prediction." 2511.00088. https://arxiv.org/abs/2511.00088 

  13. NVIDIA Blog. "Next-Gen Vehicles Built on NVIDIA DRIVE Orin." 2025. https://blogs.nvidia.com/blog/new-era-transportation-drive-orin/ 

  14. Introl. "Company Overview." Introl. 2025. https://introl.com 

  15. Inc. "Inc. 5000 2025." Inc. Magazine. 2025. 

  16. Introl. "Coverage Area." Introl. 2025. https://introl.com/coverage-area 

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING