NVIDIA NeurIPS 2025:Alpamayo-R1と物理AIの推進が自律システムを再構築
2025年12月10日 執筆:Blake Crosley
NVIDIAは、サンディエゴで開催されたNeurIPS 2025において、モビリティ向けの100億パラメータ推論型視覚言語行動モデル「DRIVE Alpamayo-R1(AR1)」をリリースした。1 このリリースは、自動運転研究に対するNVIDIAの最大のオープンソースAI貢献であり、25カ国にまたがる1,727時間の走行データセット(Waymo Open Datasetの約3倍の規模)が同時に公開された。2 NVIDIAの研究者は、カンファレンスで70本以上の論文とセッションを発表し、同社がハードウェアを超えてAIモデル開発へと役割を拡大していることを示した。3
Alpamayo-R1のリリースは、自動運転車開発における根本的な課題、すなわちAI意思決定の「ブラックボックス」的な不透明性に対処するものである。AR1は、アクションを実行する前に中間的な「思考プロセス」を生成し、入力と出力だけでなく推論の連鎖を検査することを可能にする。4 このアプローチは、説明可能性が安全性と規制上の承認に影響を与える現実世界の物理システムに、思考連鎖型AI推論を適用するものである。
Alpamayo-R1のアーキテクチャ
NVIDIA DRIVE Alpamayo-R1は、思考連鎖推論と経路計画を統合している。これは、複雑な道路シナリオにおける自動運転車の安全性を向上させ、レベル4の自律性を実現するために重要なコンポーネントである。5
技術仕様
| 仕様 | 値 |
|---|---|
| パラメータ数 | 100億(0.5Bから7Bバリアントまでスケーラブル) |
| 必要VRAM | 最小24GB |
| 推論レイテンシ | 99ms(リアルタイム対応) |
| 学習データ | 80,000時間以上の走行から10億枚以上の画像 |
| カメラ入力 | 4台のカメラ、10Hz(フロントワイド、フロントテレ、クロスレフト、クロスライト) |
| 入力解像度 | 1080x1920(320x576にダウンサンプリング) |
このモデルは、軌道のみのベースラインと比較して困難なケースで計画精度が12%向上し、閉ループシミュレーションでオフロード率が35%削減、近接遭遇率が25%削減された。6
基盤と設計
Alpamayo-R1は、NVIDIAのCosmos-Reason基盤モデル、具体的には物理的常識と身体化推論を発達させるために370万のVisual Question Answeringサンプルで事後学習されたCosmos-Reason1-7Bを基に構築されている。7 モジュラーアーキテクチャは、ビジョンエンコーダ、推論エンジン、リアルタイム計画生成のための拡散ベースの軌道デコーダを組み合わせている。
この設計は、入力を直接出力にマッピングするエンドツーエンドニューラルネットワークとは異なるアプローチを取っている。代わりに、AR1は人間のレビュアーや安全システムが評価できる中間推論を生成する。この説明可能性は、開発の反復と自律システムの規制遵守の両方をサポートする。
データセットの規模
付随するデータセットには、25カ国からの1,727時間の走行映像が含まれており、自動運転研究において前例のない地理的・シナリオ的多様性を確立している。7 この規模はWaymo Open Datasetの約3倍であり、大幅に広範な学習・評価データを提供する。
NVIDIAは、Physical AI Open Datasetsコレクションを通じて学習・評価データのサブセットを公開した。オープンソースのAlpaSimフレームワークにより、研究者は標準化されたベンチマークでAR1の性能を評価できる。[^8] モデル、データ、評価フレームワークの組み合わせは、自動運転研究のための完全なインフラを提供する。
インフラへの影響
NVIDIAの物理AI推進は、インフラ計画に影響を与える特定のコンピュート要件を生み出す。
学習要件
Alpamayo-R1のような視覚言語行動モデルは、ビデオ、センサー、テキストデータを同時に処理するマルチモーダル学習パイプラインを必要とする。10億枚以上の画像学習コーパスには、ペタバイト規模のストレージインフラが必要である。ビデオ処理のオーバーヘッドにより、コンピュート要件は同等のテキストのみのモデルの3〜5倍に増加する。
最小学習インフラ: - 効率的な勾配同期のためのNVLink/NVSwitchインターコネクトを備えたGPUクラスタ - ビデオデータセットストリーミング用の高帯域幅ストレージ(合計100+ GB/s) - マルチカメラ走行データセット用の10+ PBストレージ容量 - 推定学習コスト:フルモデルをスクラッチから学習する場合、50万〜200万ドル
自律システムを開発する組織は、ビデオ集約型の学習ワークロードをサポートするインフラを計画すべきである。特定のドメイン向けにAlpamayo-R1をファインチューニングする場合は、大幅に少ないコンピュートで済む。GPU当たり24GB以上のVRAMを持つ8-GPUクラスタで達成可能である。
推論デプロイメント
自動運転車の推論は厳格なレイテンシ制約の下で動作する。99msのレイテンシ目標は、10Hzで1フレーム内に決定を完了する必要があることを意味する。NVIDIA DRIVE Orinは65-70Wで254 TOPSを提供し、車両内でリアルタイムAR1推論を可能にする。[^9]
エッジデプロイメントオプション: | プラットフォーム | 性能 | 消費電力 | ユースケース | |----------|-------------|-------|----------| | DRIVE Orin | 254 TOPS | 65-70W | 量産車両 | | DRIVE Thor | 1,000+ TOPS | 約100W | 次世代L4システム | | Jetson AGX Orin | 275 TOPS | 15-60W | 開発/ロボティクス |
フルパイプラインは、学習用のデータセンターGPUクラスタからデプロイメント用の車載コンピュートまでにまたがる。組織は両方のインフラ層を計画する必要がある。
NeurIPSでの追加リリース
NVIDIAは、さまざまなドメインにわたるAI開発をサポートする追加のモデルとフレームワークを発表した。
デジタルAIモデル
NVIDIAは、マルチスピーカー環境向けの音声認識モデル「MultiTalker Parakeet」と、話者を識別・分離するダイアライゼーションモデル「Sortformer」をリリースした。[^9] 「Nemotron Content Safety Reasoning」は、明示的な推論を伴うコンテンツモデレーション機能を提供する。
これらのリリースは、NVIDIAのソフトウェアエコシステムをハードウェアを超えて本番AIコンポーネントへと拡張する。組織は、最適化された統合によりNVIDIAハードウェア上にNVIDIAモデルをデプロイできる。この垂直統合は、純粋なハードウェアベンダーではなくAIプラットフォームプロバイダーとしてのNVIDIAの地位を強化する。
開発ツール
NVIDIAは、学習用の合成データ生成を可能にするNeMo Data Designer LibraryをApache 2.0ライセンスでオープンソース化した。[^10] NeMo Gymは、AI開発用の強化学習環境を提供する。これらのツールは、NVIDIAプラットフォームへのエコシステムロックインを生み出しながら、AI開発の障壁を下げる。
合成データ用ツールは、AI開発を制約する学習データの制限に対処する。十分な実世界データを収集できない組織は、合成的な代替データを生成できる。この機能は、実世界データ収集に安全性への配慮が伴う自律システムに特に有益である。
競争力学
NVIDIAのモデルリリースは、ハードウェアとAI開発の両方における競争上のポジショニングに影響を与える。
プラットフォーム戦略
NVIDIAハードウェア上で最適に動作する優れたモデルをリリースすることで、同社はエコシステムでの地位を強化する。NVIDIAモデルを使用する組織は、自然とNVIDIA GPUにデプロイする。この統合は、ハードウェア仕様を超えたスイッチングコストを生み出す。
この戦略は、ハードウェアとソフトウェアの統合によりプラットフォームロックインを生み出すAppleのアプローチと類似している。NVIDIAは、チップからシステム、モデルへと拡張し、各レイヤーが他を強化する。競合他社は、統合されたスタック全体をマッチングする課題に直面する。
オープンソースのポジショニング
オープンソースリリースは、NVIDIAを純粋に商業的なベンダーではなく、AI開発の協力的な参加者として位置づける。AIがより厳しい監視に直面する中、このポジショニングは規制や一般の認識をサポートする。オープンなモデルとデータセットは、研究コミュニティへのアクセスへのコミットメントを示す。
ただし、最適な性能にはNVIDIAハードウェアが必要である。オープンソースの可用性はアクセスを民主化するが、商用デプロイメントはNVIDIAプラットフォームに集中する。このアプローチは、商業的優位性を犠牲にすることなくオープン性の利点を獲得する。
意思決定フレームワーク:Alpamayo-R1を採用すべきタイミング
| シナリオ | 推奨 | 根拠 |
|---|---|---|
| 研究/アカデミア | 即座に採用 | オープンソースアクセス、代替の3倍大きいデータセット |
| AVスタートアップ(量産前) | ファインチューニング用に評価 | 開発時間短縮、99msレイテンシ実証済み |
| Tier 1サプライヤー | 既存と比較ベンチマーク | 思考連鎖の説明可能性が規制承認を支援 |
| フリートオペレーター | 量産検証を待つ | ハードウェア要件(DRIVE Orin)により車両アップデートが必要な場合あり |
実行ステップ: 1. ダウンロードと評価:Hugging FaceからAlpamayo-R1-10Bにアクセス(最小24GB VRAM必要) 2. 自社シナリオでベンチマーク:標準化評価にAlpaSimフレームワークを使用 3. ストレージインフラを計画:本格的な物理AI開発には10+ PBを予算化 4. ファインチューニングパスを検討:ドメイン適応には8-GPUクラスタで十分
プロフェッショナルサポート
複雑なAIインフラは、経験豊富な実装パートナーからの恩恵を受ける。
Introlの550人のフィールドエンジニアは、自律システムと物理AIアプリケーション向けのインフラをデプロイする組織をサポートする。[^14] 同社は、3年間で9,594%の成長を達成し、2025年Inc. 5000で14位にランクインした。[^15]
世界257拠点にわたるプロフェッショナルデプロイメントは、地理に関係なく物理AIインフラのニーズに対応する。[^16] 実装の専門知識は、組織が新たなAI機能を採用する際のリスクを軽減する。
重要なポイント
自動運転車開発者向け: - Alpamayo-R1は、99msリアルタイムレイテンシを持つ初のオープンな産業規模推論VLAモデルを提供 - 思考連鎖推論により規制対応の説明可能性を実現 - 1,727時間のデータセット(Waymoの3倍)が前例のない学習多様性を提供
インフラ計画者向け: - 学習にはペタバイト規模のストレージと高帯域幅GPUインターコネクトが必要 - ファインチューニングは24GB以上のVRAMを持つ8-GPUクラスタで達成可能 - エッジデプロイメントはDRIVE Orin(254 TOPS)またはThor(1,000+ TOPS)を対象
戦略計画向け: - NVIDIAの垂直統合(チップ→システム→モデル)がスイッチングコストを生み出す - オープンソースの可用性は採用を可能にするが、最適な性能にはNVIDIAハードウェアが必要 - 物理AIインフラはテキストのみのAIデプロイメントと大きく異なる
展望
NVIDIAのNeurIPS 2025リリースは、ハードウェアからAIモデルと開発ツールへと拡大する野心を示している。Alpamayo-R1は自動運転研究を前進させるとともに、NVIDIAをオープンAI開発への貢献者として確立する。これらのリリースは、統合AIプラットフォームプロバイダーとしてのNVIDIAの地位を強化する。
自律システムや物理AIアプリケーションを構築する組織は、開発を加速するためにNeurIPSリリースを評価すべきである。モデル、データセット、ツールの組み合わせは開発負担を軽減し、オープンソースの可用性は特定のアプリケーション向けのカスタマイズを可能にする。インフラ計画は、これらの高度なアプリケーションが要求するコンピュートとデータ要件に対応する必要がある。
参考文献
[翻訳のためコンテンツを省略]
-
NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development for Digital and Physical AI." December 2025. https://blogs.nvidia.com/blog/neurips-open-source-digital-physical-ai/ ↩
-
WinBuzzer. "Alpamayo-R1: NVIDIA Releases Vision Reasoning Model and Massive 1,727-Hour Dataset." December 2025. https://winbuzzer.com/2025/12/02/alpamayo-r1-nvidia-releases-vision-reasoning-model-and-massive-1727-hour-dataset-for-autonomous-driving-xcxwbn/ ↩
-
NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. ↩
-
ContentGrip. "New Nvidia AI model brings reasoning to self-driving tech." December 2025. https://www.contentgrip.com/nvidia-alpamayo-r1-ai/ ↩
-
TechCrunch. "Nvidia announces new open AI models and tools for autonomous driving research." December 2025. https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/ ↩
-
NVIDIA Research. "Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving." October 2025. https://research.nvidia.com/publication/2025-10_alpamayo-r1 ↩
-
Hugging Face. "nvidia/Alpamayo-R1-10B Model Card." December 2025. https://huggingface.co/nvi ↩↩