
NVIDIA CEO Jensen Huang이 Computex 2025에서 트레이드마크인 가죽 재킷을 입고 무대에 올라 새로운 하드웨어와 완전히 재구상된 컴퓨팅 패러다임을 공개했습니다. 이 반도체 거대기업은 AI 인프라 회사로 결정적으로 변모하여 Huang이 "지능의 인프라"라고 부르는 것의 기초를 구축하고 있습니다. 이는 전기와 인터넷에 이은 세 번째 주요 인프라 혁명입니다.
이번 키노트는 단순한 제품 발표가 아니었습니다. Jensen이 컴퓨팅 환경을 재편하기 위한 NVIDIA의 청사진을 제시한 것이었습니다. 그가 공개한 기술적 도약, 전략적 전환, 시장 전략은 이번을 우리가 앞으로 몇 년간 참조할 Computex로 만들 것입니다. Computex 2025 Nvidia keynote 전체 영상을 시청하세요.
NVIDIA의 전략적 진화: 그래픽 카드에서 인프라 제공업체로
NVIDIA의 변혁 스토리는 놀라울 정도입니다. 1993년 Jensen은 "3억 달러 칩 기회"를 보았습니다. 상당한 시장이었죠. 오늘날로 빨리 감으면, 그는 1조 달러 규모의 AI 인프라 거대기업을 지휘하고 있습니다. 그런 폭발적 성장은 저절로 일어나지 않습니다. NVIDIA는 그 과정에서 근본적으로 여러 번 자신을 재창조했습니다.
키노트에서 Jensen은 오늘날의 NVIDIA를 가능하게 한 전환점들을 강조했습니다:
-
2006: CUDA가 등장하여 병렬 컴퓨팅을 완전히 뒤바꿨습니다. 갑자기 일반 컴퓨팅에 GPU 사용을 고려해본 적이 없던 개발자들이 기존 CPU로는 불가능했을 애플리케이션을 구축하기 시작했습니다.
-
2016: DGX1이 NVIDIA의 첫 번째 타협 없는 AI 전용 시스템으로 등장했습니다. 지금 보면 거의 섬뜩할 정도로 예언적인데, Jensen은 첫 번째 유닛을 OpenAI에 기증했고, 사실상 현재 AI 혁명으로 이어질 컴퓨팅 기반을 제공한 것입니다.
-
2019: Mellanox 인수로 NVIDIA가 데이터 센터를 통합된 컴퓨팅 유닛으로 재개념화할 수 있게 되었습니다.
이 변혁은 NVIDIA의 현재 "필수 인프라 회사" 위치로 귀결되며, Huang은 AI 배포를 위한 글로벌 인프라 계획을 가능하게 하는 전례 없는 5년 공개 로드맵을 강조하며 이 지위를 부각시켰습니다.
성능 지표 재정의: 토큰 경제
NVIDIA는 컴퓨팅 출력 측정 방식에 근본적인 변화를 도입했습니다. FLOPs나 초당 연산 같은 전통적 지표 대신, Huang은 AI 데이터 센터를 "토큰"(컴퓨팅 지능의 단위)을 생산하는 공장으로 위치시켰습니다:
"기업들이 지난 분기에 생산한 토큰 수와 지난달에 생산한 토큰 수에 대해 이야기하기 시작했습니다. 곧 우리는 모든 공장이 그러하듯 시간당 생산하는 토큰 수를 논의하게 될 것입니다."
이러한 재구성은 컴퓨팅 투자와 비즈니스 출력을 직접 연결하여 AI 인프라를 전통적인 산업 프레임워크와 정렬시킵니다. 이 모델은 NVIDIA를 컴퓨팅 효율성이 비즈니스 역량으로 직접 전환되는 새로운 경제 패러다임의 중심에 위치시킵니다.
Blackwell 아키텍처 업그레이드: GB300 사양 및 성능 지표
[caption id="" align="alignnone" width="1280"]
GB200 시스템 [/caption]
Blackwell 아키텍처의 GB300 업데이트는 NVIDIA의 끊임없는 성능 개선 사이클을 보여줍니다. 2025년 3분기로 예정된 GB300은 다음을 제공합니다:
- GB200 대비 1.5배 추론 성능 향상
- 1.5배 HBM 메모리 용량 증가
- 2배 네트워킹 대역폭 개선
- 완전 액체 냉각 설계
- 기존 섀시 및 시스템과의 완전한 하위 호환성
각 GB300 노드는 약 40 페타플롭스를 제공합니다. 이는 사실상 18,000개의 Volta GPU가 필요했던 전체 Sierra 슈퍼컴퓨터(2018년경)를 대체하는 것입니다. 6년 내 4,000배 성능 향상은 전통적인 무어의 법칙 확장을 훨씬 능가하며, 아키텍처, 소프트웨어, 인터커넥트 혁신을 통한 NVIDIA의 다각적 성능 가속 접근 방식을 보여줍니다.
MVLink: 인터커넥트 기술의 재정의
MVLink는 NVLink 도입 이후 GPU 인터커넥트 기술에서 가장 중요한 발전을 나타냅니다. 이 시스템은 전체 랙에 걸쳐 컴퓨팅 리소스의 완전한 분산을 가능하게 하여 72개의 GPU(144개 GPU 다이)를 하나의 거대한 컴퓨팅 유닛으로 전환합니다.
기술 사양은 놀라울 정도입니다:
- 개별 MVLink 스위치: 7.2 TB/s 대역폭
- MVLink spine: 130 TB/s all-to-all 대역폭
- 물리적 구현: 5,000개의 정밀하게 길이가 맞춰진 동축 케이블(총 약 2마일)
- 전력 밀도: 랙당 120킬로와트(액체 냉각 필수)
맥락상, Huang은 전체 인터넷의 피크 트래픽이 약 900테라비트/초(112.5 TB/s)라고 언급했는데, 이는 단일 MVLink spine이 글로벌 인터넷의 피크 용량보다 많은 트래픽을 처리할 수 있음을 의미합니다.
MVLink Fusion: 개방형 AI 인프라 생태계 구축

MVLink Fusion은 NVIDIA가 수년간 만들어온 가장 혁신적인 생태계 전략일 수 있습니다. 파트너들이 NVIDIA 하드웨어에 올인하도록 강요하는 대신, 기업들이 여전히 NVIDIA 생태계에 연결되는 세미 커스텀 AI 시스템을 구축할 수 있도록 아키텍처를 개방하고 있습니다.
접근 방식은 놀랍도록 유연합니다:
-
커스텀 ASIC 통합: 특화된 가속기가 있나요? 문제없습니다. 파트너들은 MVLink chiplet을 적용하여 커스텀 실리콘을 NVIDIA 생태계에 연결할 수 있습니다. NVIDIA가 "원하는 특화된 하드웨어를 구축하되, 우리 제품과 통신할 수 있도록 하라"고 말하는 것과 같습니다.
-
커스텀 CPU 통합: CPU 벤더들도 소외되지 않습니다. 그들은 MVLink의 칩 간 인터페이스를 직접 구현하여 프로세서와 Blackwell GPU(또는 곧 출시될 Ruben 아키텍처) 간 직접적인 고속도로를 만들 수 있습니다. MVLink는 특정 CPU 아키텍처에 투자한 기업들에게 큰 의미가 있습니다.
파트너 발표는 반도체 업계 전반에 걸쳐 있습니다:
- 실리콘 구현 파트너: LCHIP, Astera Labs, Marll, MediaTek
- CPU 벤더: Fujitsu, Qualcomm
- EDA 제공업체: Cadence, Synopsis
이 접근 방식은 고객이 배포하는 특정 하드웨어 믹스와 관계없이 NVIDIA가 가치를 획득할 수 있도록 전략적으로 위치시키며, Huang의 솔직한 발언을 반영합니다: "여러분이 NVIDIA에서 모든 걸 사는 것만큼 기쁜 일은 없습니다. 여러분이 이걸 알아주길 바랍니다. 하지만 여러분이 NVIDIA에서 뭔가를 사는 것도 엄청나게 기쁜 일입니다."
엔터프라이즈 AI 배포: RTX Pro Enterprise와 Omniverse Server

RTX Pro Enterprise와 Omniverse 서버는 전통적인 IT 환경에 AI 기능을 통합하도록 특별히 설계된 NVIDIA의 가장 중요한 엔터프라이즈 전용 컴퓨팅 제품입니다:
- 완전한 x86 호환 아키텍처
- 전통적인 하이퍼바이저 지원(VMware, Red Hat, Nanix)
- 친숙한 워크로드 오케스트레이션을 위한 Kubernetes 통합
- Blackwell RTX Pro 6000s GPU(서버당 8개)
- 800 Gb/s 대역폭을 제공하는 CX8 네트워킹 칩
- Hopper H100 대비 1.7배 성능 향상
- Deepseek R1과 같은 최적화된 모델에서 4배 성능
이 시스템은 처리량(초당 토큰)과 응답성(사용자당 초당 토큰)의 이중 축 프레임워크로 측정되는 AI 추론의 새로운 성능 범위를 설정합니다. 이는 Huang이 "추론 시간 확장" 또는 "사고하는 AI"의 시대라고 설명하는 것에 중요한 지표입니다.
AI 데이터 플랫폼: 비정형 데이터를 위한 스토리지 재구상
NVIDIA의 AI Data Platform은 엔터프라이즈 스토리지에 근본적으로 다른 접근 방식을 도입합니다:
"인간은 SQL 같은 구조화된 데이터베이스를 쿼리합니다... 하지만 AI는 비정형 데이터를 쿼리하고 싶어 합니다. 의미론적이고 의미 있는 것을 원합니다. 따라서 우리는 새로운 유형의 스토리지 플랫폼을 만들어야 합니다."
주요 구성 요소는 다음과 같습니다:
- NVIDIA AIQ (또는 IQ): 의미론적 쿼리 레이어
- 전통적인 CPU 중심 아키텍처를 대체하는 GPU 가속 스토리지 노드
- 투명한 훈련 데이터 출처를 가진 사후 훈련 AI 모델
- 기존 솔루션 대비 50% 향상된 결과로 15배 빠른 쿼리
이 아키텍처를 구현하는 스토리지 업계 파트너로는 Dell, Hitachi, IBM, NetApp, Vast가 있어 포괄적인 엔터프라이즈 AI 데이터 관리 생태계를 만들고 있습니다.
AI 운영 및 로보틱스: 지능형 엔터프라이즈를 위한 소프트웨어 프레임워크

키노트에서는 두 가지 중요한 소프트웨어 프레임워크를 소개했습니다:
-
AI Operations (AIOps): 데이터 큐레이션, 모델 파인튜닝, 평가, 가드레일, 보안을 포함하여 엔터프라이즈 환경에서 AI 에이전트를 관리하기 위한 포괄적인 스택. 파트너로는 Crowdstrike, Data IQ, Data Robots, Elastic, Newonix, Red Hat, Trend Micro가 있습니다.
-
Isaac Groot Platform N1.5: 다음을 포함하는 오픈소스 로보틱스 개발 생태계:
- Newton 물리 엔진(Google DeepMind 및 Disney Research와 공동 개발)
- Jetson Thor 로보틱스 프로세서
- NVIDIA Isaac 운영 체제
- 합성 궤적 데이터 생성을 위한 Groot Dreams 블루프린트
로보틱스 이니셔티브는 중요한 과제를 해결합니다: "로보틱스가 실현되려면 AI가 필요합니다. 하지만 AI를 가르치려면 AI가 필요합니다." 이 재귀적 최적화 패턴은 생성형 AI를 활용하여 제한된 인간 시연 데이터를 포괄적인 로보틱스 훈련 세트로 확장합니다.
AI 제조 혁명에서 대만의 전략적 위치
키노트의 상당 부분은 AI 기술 생산과 구현 모두에서 대만의 중추적 역할을 강조했습니다:
- 대만 제조 회사들(TSMC, Foxconn, Wistron, Pegatron, Delta Electronics, Quanta, Wiiwin, Gigabyte)이 디지털 트윈 구현을 위해 NVIDIA Omniverse를 배포하고 있습니다.
- TSMC는 팹 레이아웃과 배관 시스템 최적화를 위해 CUDA 기반 AI 도구를 사용하고 있습니다.
- 제조 파트너들은 가상 계획 및 예측 유지보수를 위해, 그리고 로보틱스 시스템 훈련을 위한 "로봇 짐"으로 디지털 트윈을 사용합니다.
- Foxconn, TSMC, 대만 정부, NVIDIA가 대만 최초의 대규모 AI 슈퍼컴퓨터를 구축하고 있습니다.
Huang은 타이베이에 새로운 본사 시설인 "NVIDIA Constellation" 계획을 발표함으로써 이 지역에 대한 NVIDIA의 의지를 더욱 확고히 했습니다.
기술적 분석: 엔터프라이즈 AI 전략에 미치는 의미
이러한 발표들은 종합적으로 엔터프라이즈 컴퓨팅의 포괄적인 재구상을 나타내며 여러 전략적 의미를 가집니다:
-
컴퓨팅 스케일 요구사항: "추론하는 AI"와 에이전트 시스템의 추론 시간 성능 요구사항은 초기 대규모 언어 모델 배포보다 훨씬 높은 컴퓨팅 요구사항을 유도하여 대규모 스케일업 및 스케일아웃 기능을 위한 아키텍처 계획을 필요로 합니다.
-
엔터프라이즈 AI의 분해: MVLink Fusion 생태계는 이기종 AI 시스템 구축에서 전례 없는 유연성을 가능하게 하여 인터커넥트 기술을 통해 생태계에서 NVIDIA의 위치를 유지하면서 특화된 AI 가속기의 채택을 잠재적으로 가속화합니다.
-
데이터 센터에서 AI 팩토리로의 전환: 인프라 투자의 가치를 측정하는 방식을 완전히 재고해야 합니다. 원시 컴퓨팅이나 스토리지 용량이 전체 스토리를 말해주던 시대는 지났습니다. 이제는 토큰 생산이 전부입니다. 시스템이 초당, 와트당, 달러당 얼마나 많은 AI 출력 단위를 생성할 수 있는지가 중요합니다. Jensen이 기업들이 곧 제조 지표와 같이 토큰 생산을 보고하게 될 것이라고 했을 때 농담이 아니었습니다. AI 팩토리로의 전환은 AI 인프라 지출을 배포하고 정당화하는 경제학을 근본적으로 재작성할 것입니다.
-
디지털 트윈 통합: 모든 주요 대만 제조업체가 Omniverse 디지털 트윈을 구축하고 있다는 사실이 모든 것을 말해줍니다. 이는 더 이상 멋진 기술 데모가 아닙니다. 디지털 트윈은 최적화를 진지하게 생각하는 기업들에게 필수 인프라가 되었습니다. 특히 흥미로운 것은 이것이 피드백 루프를 만드는 방식입니다: 기업들은 물리적 프로세스를 최적화하기 위해 디지털 트윈을 구축하고, 같은 환경을 사용하여 AI와 로보틱스를 훈련시켜 물리적 세계를 더욱 개선합니다. 계속 가속화하는 지속적 개선 사이클입니다.
-
로봇 인력 계획: 에이전트 AI와 물리적 로보틱스의 융합은 조직들이 통합된 디지털 및 물리적 자동화 전략을 개발해야 함을 시사하며, 이는 인력 계획 및 시설 설계에 중요한 의미를 가집니다.
-
소프트웨어 정의 인프라: 하드웨어 발표에도 불구하고 라이브러리와 소프트웨어 프레임워크에 대한 NVIDIA의 지속적인 강조는 AI에서의 경쟁 우위가 원시 하드웨어 기능만큼이나 소프트웨어 최적화에서 나올 것임을 재확인합니다.
AI 팩토리 전환 탐색
전통적인 데이터 센터를 AI 팩토리로 전환하려면 하드웨어 배포, 소프트웨어 최적화, 아키텍처 설계를 연결하는 전문 지식이 필요합니다. Introl에서는 AI 우선 컴퓨팅으로 도약하는 기업들을 위해 이러한 고급 GPU 인프라 솔루션을 구현해왔습니다. 복잡한 MVLink 배포부터 Omniverse 디지털 트윈 구현까지, NVIDIA 생태계에 대한 우리 팀의 깊은 경험은 조직들이 일반적으로 최첨단 인프라와 관련된 가파른 학습 곡선 없이 이 패러다임 전환을 탐색할 수 있도록 도와줍니다. 추론하는 AI 기능을 확장하든 첫 번째 AI 팩토리 플로어를 구축하든, 전문가와의 파트너십은 빠르게 진화하는 환경에서 가치 창출 시간을 극적으로 단축할 수 있습니다. 완성할 준비가 되셨나요? 오늘 전화 일정을 잡으세요.
결론: 컴퓨팅의 세 번째 시대가 도래했습니다

Computex는 단순히 NVIDIA가 더 빠른 칩을 과시하는 것이 아니었습니다. Jensen이 제시한 것은 우리가 무감각해진 일반적인 "작년보다 20% 향상" 발표를 훨씬 뛰어넘었습니다. 그는 컴퓨터의 목적을 근본적으로 재구성하고 있습니다. 우리는 수십 년간 숫자를 처리하고 데이터를 이동하는 기계를 구축해왔습니다. 이제 NVIDIA는 지능을 주요 출력으로 제조하는 시스템을 구축하고 있습니다. 파일링 캐비닛과 뇌를 비교하는 것과 같습니다. 둘 다 정보를 저장하지만, 하나는 그냥 있고 다른 하나는 새로운 아이디어를 창조합니다. 이 변화는 컴퓨팅 시스템을 구축, 배포, 측정하는 모든 것을 바꾼다는 것을 깨닫기 전까지는 어의상 차이처럼 들릴 수 있습니다.
"우리가 함께한 모든 시간 중 처음으로, 차세대 IT를 만들고 있을 뿐만 아니라 - PC에서 인터넷으로, 클라우드로, 모바일 클라우드로 여러 번 그래왔습니다 - 이번에는 차세대 IT를 만들 뿐만 아니라 완전히 새로운 산업을 창조하고 있습니다."
이 전환은 개인용 컴퓨팅 혁명과 인터넷/클라우드 시대에 이은 세 번째 주요 컴퓨팅 패러다임 전환을 나타냅니다. 이러한 AI 인프라 기능을 통합하는 조직들은 산업 전반에 걸쳐 극복할 수 없는 경쟁 우위를 확립할 가능성이 높습니다.
컴퓨팅 지능의 공장들이 오늘 건설되고 있습니다. 문제는 더 이상 AI가 비즈니스를 변화시킬 것인지가 아니라, 여러분의 조직이 컴퓨팅 지능이 전기처럼 비즈니스 운영에 근본적이 되는 세상에서 경쟁력을 유지하기 위한 인프라를 구축하고 있는지입니다.
참고 자료 및 추가 리소스
-
NVIDIA 공식 Blackwell 아키텍처 개요: https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/
-
NVIDIA MVLink 기술 문서: https://developer.nvidia.com/mvlink
-
NVIDIA Omniverse 플랫폼: https://www.nvidia.com/en-us/omniverse/
-
Isaac 로보틱스 플랫폼: https://developer.nvidia.com/isaac-ros
-
NVIDIA AI Enterprise: https://www.nvidia.com/en-us/data-center/products/ai-enterprise/
-
NVIDIA Computex 2025 공식 보도 자료: https://nvidianews.nvidia.com/news/computex-2025
-
NVIDIA CUDA-X 라이브러리 개요: https://developer.nvidia.com/gpu-accelerated-libraries
-
NVIDIA DGX 시스템: https://www.nvidia.com/en-us/data-center/dgx-systems/