NVIDIA NeurIPS 2025: Alpamayo-R1과 물리적 AI 추진이 자율 시스템을 재편

NVIDIA가 Alpamayo-R1 출시. 99ms 지연 시간과 25개국에 걸친 1,727시간 데이터셋을 갖춘 자율주행용 100억 파라미터 추론 모델.

NVIDIA NeurIPS 2025: Alpamayo-R1과 물리적 AI 추진이 자율 시스템을 재편

NVIDIA NeurIPS 2025: Alpamayo-R1과 물리적 AI 추진이 자율 시스템을 재편

2025년 12월 10일 저자: Blake Crosley

NVIDIA는 샌디에이고에서 열린 NeurIPS 2025에서 모빌리티를 위한 100억 파라미터 추론 비전 언어 행동 모델인 DRIVE Alpamayo-R1(AR1)을 발표했습니다.1 이번 출시는 25개국에 걸친 1,727시간의 주행 데이터셋(Waymo Open Dataset의 약 3배 규모)을 동반한, NVIDIA의 자율주행 연구에 대한 최대 규모의 오픈소스 기여를 나타냅니다.2 NVIDIA 연구원들은 컨퍼런스에서 70개 이상의 논문과 세션을 발표했으며, 이는 하드웨어를 넘어 AI 모델 개발로 회사의 역할이 확장되고 있음을 보여줍니다.3

Alpamayo-R1 출시는 자율주행 차량 개발의 근본적인 과제인 AI 의사결정의 "블랙박스" 불투명성을 해결합니다. AR1은 행동을 실행하기 전에 중간 "사고 과정"을 생성하여 입력과 출력만이 아닌 추론 체인을 검사할 수 있게 합니다.4 이 접근 방식은 설명 가능성이 안전성과 규제 수용에 영향을 미치는 실제 물리적 시스템에 사고 연쇄 AI 추론을 적용합니다.

Alpamayo-R1 아키텍처

NVIDIA DRIVE Alpamayo-R1은 사고 연쇄 추론과 경로 계획을 통합합니다. 이는 복잡한 도로 시나리오에서 자율주행 차량 안전을 향상시키고 레벨 4 자율성을 가능하게 하는 핵심 구성 요소입니다.5

기술 사양

사양
파라미터 100억 (5억에서 70억 변형까지 확장 가능)
필요 VRAM 최소 24GB
추론 지연 시간 99ms (실시간 가능)
훈련 데이터 80,000시간 주행에서 10억+ 이미지
카메라 입력 10Hz로 4개 카메라 (전방 광각, 전방 망원, 교차 좌측, 교차 우측)
입력 해상도 1080x1920 (320x576으로 다운샘플링)

이 모델은 궤적 전용 베이스라인 대비 어려운 케이스에서 계획 정확도 12% 향상을 달성하며, 폐루프 시뮬레이션에서 오프로드 비율 35% 감소, 근접 조우 비율 25% 감소를 보였습니다.6

기반 및 설계

Alpamayo-R1은 NVIDIA의 Cosmos-Reason 기반 모델, 특히 물리적 상식과 구현된 추론을 개발하기 위해 370만 개의 시각적 질문 응답 샘플로 사후 훈련된 Cosmos-Reason1-7B를 기반으로 구축되었습니다.7 모듈식 아키텍처는 실시간 계획 생성을 위한 비전 인코더, 추론 엔진 및 확산 기반 궤적 디코더를 결합합니다.

이 설계는 입력을 출력에 직접 매핑하는 엔드투엔드 신경망에서 벗어납니다. 대신 AR1은 인간 검토자와 안전 시스템이 평가할 수 있는 중간 추론을 생성합니다. 설명 가능성은 자율 시스템의 개발 반복과 규제 준수 모두를 지원합니다.

데이터셋 규모

동반 데이터셋에는 25개국에서 수집한 1,727시간의 주행 영상이 포함되어 있으며, 자율주행 연구를 위한 전례 없는 지리적 및 시나리오 다양성을 확립합니다.7 이 규모는 Waymo Open Dataset을 약 3배 초과하여 훨씬 더 광범위한 훈련 및 평가 데이터를 제공합니다.

NVIDIA는 Physical AI Open Datasets 컬렉션을 통해 훈련 및 평가 데이터의 하위 집합을 공개했습니다. 오픈소스 AlpaSim 프레임워크를 통해 연구자들은 표준화된 벤치마크에서 AR1 성능을 평가할 수 있습니다.8 모델, 데이터 및 평가 프레임워크의 조합은 자율주행 연구를 위한 완전한 인프라를 제공합니다.

인프라 영향

NVIDIA의 물리적 AI 추진은 인프라 계획에 영향을 미치는 특정 컴퓨팅 요구 사항을 생성합니다.

훈련 요구 사항

Alpamayo-R1과 같은 비전-언어-행동 모델은 비디오, 센서 및 텍스트 데이터를 동시에 처리하는 멀티모달 훈련 파이프라인이 필요합니다. 10억 개 이상의 이미지 훈련 코퍼스는 페타바이트 규모의 스토리지 인프라가 필요합니다. 비디오 처리 오버헤드는 동등한 텍스트 전용 모델보다 컴퓨팅 요구 사항을 3-5배 높입니다.

최소 훈련 인프라: - 효율적인 그래디언트 동기화를 위한 NVLink/NVSwitch 상호 연결이 있는 GPU 클러스터 - 비디오 데이터셋 스트리밍을 위한 고대역폭 스토리지 (100+ GB/s 집계) - 멀티 카메라 주행 데이터셋을 위한 10+ PB 스토리지 용량 - 예상 훈련 비용: 처음부터 전체 모델 훈련에 $500K-2M

자율 시스템을 개발하는 조직은 비디오 집약적 훈련 워크로드를 지원하는 인프라를 계획해야 합니다. 특정 도메인을 위한 Alpamayo-R1 파인튜닝은 훨씬 적은 컴퓨팅이 필요하며, GPU당 24GB+ VRAM을 갖춘 8-GPU 클러스터에서 달성 가능합니다.

추론 배포

자율주행 차량 추론은 엄격한 지연 시간 제약 하에서 작동합니다. 99ms 지연 시간 목표는 10Hz에서 단일 프레임 내에 결정을 완료해야 함을 의미합니다. NVIDIA DRIVE Orin은 65-70W에서 254 TOPS를 제공하여 차량에서 AR1 실시간 추론을 가능하게 합니다.9

엣지 배포 옵션: | 플랫폼 | 성능 | 전력 | 사용 사례 | |----------|-------------|-------|----------| | DRIVE Orin | 254 TOPS | 65-70W | 양산 차량 | | DRIVE Thor | 1,000+ TOPS | ~100W | 차세대 L4 시스템 | | Jetson AGX Orin | 275 TOPS | 15-60W | 개발/로보틱스 |

전체 파이프라인은 훈련용 데이터센터 GPU 클러스터에서 배포용 임베디드 차량 컴퓨팅까지 확장됩니다. 조직은 두 인프라 계층 모두를 계획해야 합니다.

추가 NeurIPS 출시

NVIDIA는 다양한 도메인에서 AI 개발을 지원하는 여러 추가 모델과 프레임워크를 도입했습니다.

디지털 AI 모델

NVIDIA는 다중 화자 환경을 위한 음성 인식 모델 MultiTalker Parakeet과 화자를 식별하고 분리하는 다이어리제이션 모델 Sortformer를 출시했습니다.9 Nemotron Content Safety Reasoning은 명시적 추론과 함께 콘텐츠 조절 기능을 제공합니다.

이러한 출시는 NVIDIA의 소프트웨어 생태계를 하드웨어를 넘어 프로덕션 AI 구성 요소로 확장합니다. 조직은 최적화된 통합으로 NVIDIA 하드웨어에 NVIDIA 모델을 배포할 수 있습니다. 수직 통합은 순수 하드웨어 벤더가 아닌 AI 플랫폼 제공자로서의 NVIDIA 위치를 강화합니다.

개발 도구

NVIDIA는 Apache 2.0 하에 NeMo Data Designer Library를 오픈소스로 공개하여 훈련을 위한 합성 데이터 생성을 가능하게 했습니다.10 NeMo Gym은 AI 개발을 위한 강화 학습 환경을 제공합니다. 이러한 도구는 NVIDIA 플랫폼에 대한 생태계 종속을 생성하면서 AI 개발 장벽을 낮춥니다.

합성 데이터 도구는 AI 개발을 제약하는 훈련 데이터 제한을 해결합니다. 충분한 실제 데이터를 수집할 수 없는 조직은 합성 대안을 생성할 수 있습니다. 이 기능은 실제 데이터 수집에 안전 고려 사항이 포함된 자율 시스템에 특히 유용합니다.

경쟁 역학

NVIDIA의 모델 출시는 하드웨어와 AI 개발 모두에 대한 경쟁 포지셔닝에 영향을 미칩니다.

플랫폼 전략

NVIDIA 하드웨어에서 최적으로 실행되는 유능한 모델을 출시함으로써 회사는 생태계 위치를 강화합니다. NVIDIA 모델을 사용하는 조직은 자연스럽게 NVIDIA GPU에 배포합니다. 통합은 하드웨어 사양을 넘어서는 전환 비용을 생성합니다.

이 전략은 플랫폼 종속을 생성하는 Apple의 하드웨어-소프트웨어 통합 접근 방식과 유사합니다. NVIDIA는 칩에서 시스템, 모델로 확장되며 각 레이어가 다른 레이어를 강화합니다. 경쟁자들은 통합 스택을 매칭하는 데 어려움을 겪습니다.

오픈소스 포지셔닝

오픈소스 출시는 NVIDIA를 순수 상업 벤더가 아닌 AI 개발의 협력 참가자로 포지셔닝합니다. 이 포지셔닝은 AI가 증가된 감시에 직면함에 따라 규제 및 대중 인식을 지원합니다. 오픈 모델과 데이터셋은 연구 커뮤니티 접근에 대한 헌신을 보여줍니다.

그러나 최적의 성능에는 NVIDIA 하드웨어가 필요합니다. 오픈소스 가용성은 접근을 민주화하지만 상업적 배포는 NVIDIA 플랫폼에 집중됩니다. 이 접근 방식은 상업적 이점을 희생하지 않고 개방성의 이점을 포착합니다.

의사결정 프레임워크: Alpamayo-R1 채택 시기

시나리오 권장 사항 근거
연구/학계 즉시 채택 오픈소스 접근, 대안보다 3배 큰 데이터셋
AV 스타트업 (사전 생산) 파인튜닝 평가 개발 시간 단축, 검증된 99ms 지연 시간
티어 1 공급업체 기존 대비 벤치마크 사고 연쇄 설명 가능성이 규제 승인 지원
차량 운영자 생산 검증 대기 하드웨어 요구 사항(DRIVE Orin)에 차량 업데이트 필요할 수 있음

실행 단계: 1. 다운로드 및 평가: Hugging Face에서 Alpamayo-R1-10B 접근 (최소 24GB VRAM 필요) 2. 시나리오에서 벤치마크: 표준화된 평가를 위해 AlpaSim 프레임워크 사용 3. 스토리지 인프라 계획: 본격적인 물리적 AI 개발을 위해 10+ PB 예산 책정 4. 파인튜닝 경로 고려: 도메인 적응에 8-GPU 클러스터 충분

전문 지원

복잡한 AI 인프라는 경험 많은 구현 파트너로부터 이점을 얻습니다.

Introl의 550명의 현장 엔지니어가 자율 시스템 및 물리적 AI 애플리케이션을 위한 인프라를 배포하는 조직을 지원합니다.14 이 회사는 2025년 Inc. 5000에서 14위를 기록했으며 3년간 9,594% 성장을 달성했습니다.15

257개 글로벌 위치에서의 전문 배포는 지리에 관계없이 물리적 AI 인프라 요구를 해결합니다.16 구현 전문 지식은 조직이 새로운 AI 기능을 채택할 때 위험을 줄입니다.

핵심 요점

자율주행 차량 개발자용: - Alpamayo-R1은 99ms 실시간 지연 시간을 갖춘 최초의 오픈 산업 규모 추론 VLA 모델 제공 - 사고 연쇄 추론으로 규제 친화적 설명 가능성 구현 - 1,727시간 데이터셋 (Waymo의 3배)으로 전례 없는 훈련 다양성 제공

인프라 기획자용: - 훈련에 페타바이트 규모 스토리지와 고대역폭 GPU 상호 연결 필요 - 24GB+ VRAM의 8-GPU 클러스터에서 파인튜닝 달성 가능 - 엣지 배포는 DRIVE Orin (254 TOPS) 또는 Thor (1,000+ TOPS) 대상

전략 기획용: - NVIDIA의 수직 통합 (칩 → 시스템 → 모델)이 전환 비용 생성 - 오픈소스 가용성으로 채택 가능하지만 최적 성능에는 NVIDIA 하드웨어 필요 - 물리적 AI 인프라는 텍스트 전용 AI 배포와 크게 다름

전망

NVIDIA의 NeurIPS 2025 출시는 하드웨어에서 AI 모델 및 개발 도구로 확장되는 야망을 보여줍니다. Alpamayo-R1은 자율주행 연구를 발전시키면서 NVIDIA를 오픈 AI 개발의 기여자로 확립합니다. 이러한 출시는 통합 AI 플랫폼 제공자로서의 NVIDIA 위치를 강화합니다.

자율 시스템이나 물리적 AI 애플리케이션을 구축하는 조직은 개발 가속화를 위해 NeurIPS 출시를 평가해야 합니다. 모델, 데이터셋 및 도구의 조합은 개발 부담을 줄이고 오픈소스 가용성은 특정 애플리케이션에 대한 맞춤화를 가능하게 합니다. 인프라 계획은 이러한 고급 애플리케이션이 요구하는 컴퓨팅 및 데이터 요구 사항을 수용해야 합니다.

참고 문헌


긴급도: 중간 — 인프라 계획에 영향을 미치는 연구 출시 단어 수: ~2,000


  1. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development for Digital and Physical AI." December 2025. https://blogs.nvidia.com/blog/neurips-open-source-digital-physical-ai/ 

  2. WinBuzzer. "Alpamayo-R1: NVIDIA Releases Vision Reasoning Model and Massive 1,727-Hour Dataset." December 2025. https://winbuzzer.com/2025/12/02/alpamayo-r1-nvidia-releases-vision-reasoning-model-and-massive-1727-hour-dataset-for-autonomous-driving-xcxwbn/ 

  3. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  4. ContentGrip. "New Nvidia AI model brings reasoning to self-driving tech." December 2025. https://www.contentgrip.com/nvidia-alpamayo-r1-ai/ 

  5. TechCrunch. "Nvidia announces new open AI models and tools for autonomous driving research." December 2025. https://techcrunch.com/2025/12/01/nvidia-announces-new-open-ai-models-and-tools-for-autonomous-driving-research/ 

  6. NVIDIA Research. "Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving." October 2025. https://research.nvidia.com/publication/2025-10_alpamayo-r1 

  7. Hugging Face. "nvidia/Alpamayo-R1-10B Model Card." December 2025. https://huggingface.co/nvidia/Alpamayo-R1-10B 

  8. NVIDIA Developer Forums. "Physical AI at NeurIPS 2025." December 2025. https://forums.developer.nvidia.com/t/physical-ai-at-neurips-2025-annoucements/353373 

  9. NVIDIA Developer. "DRIVE AGX Autonomous Vehicle Development Platform." 2025. https://developer.nvidia.com/drive/agx 

  10. MLQ AI. "NVIDIA Unveils Alpamayo-R1 and New AI Tools for Speech, Safety and Autonomous Driving." December 2025. https://mlq.ai/news/nvidia-unveils-alpamayo-r1-and-new-ai-tools-for-speech-safety-and-autonomous-driving-at-neurips-2025/ 

  11. NVIDIA. "At NeurIPS, NVIDIA Advances Open Model Development." December 2025. 

  12. ArXiv. "Alpamayo-R1: Bridging Reasoning and Action Prediction." 2511.00088. https://arxiv.org/abs/2511.00088 

  13. NVIDIA Blog. "Next-Gen Vehicles Built on NVIDIA DRIVE Orin." 2025. https://blogs.nvidia.com/blog/new-era-transportation-drive-orin/ 

  14. Introl. "Company Overview." Introl. 2025. https://introl.com 

  15. Inc. "Inc. 5000 2025." Inc. Magazine. 2025. 

  16. Introl. "Coverage Area." Introl. 2025. https://introl.com/coverage-area 

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING