궤도 데이터 센터: 우주 기반 AI 인프라 완벽 가이드

Starcloud가 Nvidia H100을 사용해 최초로 우주에서 LLM을 훈련시켰습니다. Google, SpaceX, 중국이 궤도 데이터 센터 구축 경쟁에 뛰어들었습니다. 우주 AI 기술 가이드.

궤도 데이터 센터: 우주 기반 AI 인프라 완벽 가이드

궤도 데이터 센터: 우주 기반 AI 인프라 완벽 가이드

2025년 12월 10일, Nvidia H100 GPU를 탑재한 60킬로그램의 위성이 우주에서 최초로 대규모 언어 모델을 성공적으로 훈련시키며 컴퓨팅 역사의 중대한 전환점을 기록했습니다. Starcloud의 이번 성과는 지구에서 가장 전력 소모가 큰 칩이 우주의 진공 상태에서도 작동할 수 있음을 입증했으며, 현재 지상 전력망에 부담을 주고 있는 AI 워크로드를 위한 무한한 태양 에너지 활용 가능성을 열었습니다.

요약

Starcloud는 Starcloud-1 위성에 탑재된 Nvidia H100 GPU에서 NanoGPT를 실행하며 궤도에서 LLM을 훈련시킨 최초의 기업이 되었습니다. Google은 Project Suncatcher를 통해 2027년 초까지 TPU 장착 위성을 발사할 계획이며, 중국의 삼체(三體) 컴퓨팅 위성군은 2030년까지 2,800개의 AI 위성 배치를 목표로 하고 있습니다. 경제적 타당성은 발사 비용이 킬로그램당 200달러 이하로 하락하는 것과 궤도에서 태양광 패널이 지구보다 최대 8배 더 많은 전력을 생산할 수 있다는 전망에 달려 있습니다. 2030년까지 전력 수요가 3배로 증가할 것으로 예상되는 데이터 센터 운영자들에게 궤도 인프라는 지상 전력망 제약에서 벗어날 수 있는 잠재적 해결책입니다.


우주 진출을 촉발하는 지상 전력 위기

데이터 센터는 2023년 미국 전체 전력의 4.4%를 소비했으며, 미국 에너지부에 따르면 2028년까지 6.7%에서 12%에 이를 수 있습니다. 전 세계 데이터 센터의 전력 소비량은 2030년까지 945 TWh로 두 배가 될 것이며, AI 최적화 서버는 데이터 센터 전력 사용량에서 2025년 21%에서 2030년 44%로 증가할 전망입니다.

전력 수요 전망

지역 2024 2030 증가율
미국 데이터 센터 ~45 GW 134.4 GW ~3배
글로벌 데이터 센터 460 TWh 945-980 TWh ~2배
AI 서버 (글로벌) 93 TWh 432 TWh ~5배

지방 정부들은 전력망에 부담을 주고 냉각수를 소비하는 새로운 데이터 센터 제안을 거부하기 시작했습니다. 미국만 해도 2030년까지 PJM 연계망에서 예상 데이터 센터 부하와 신규 발전 용량 사이에 잠재적으로 2.3 GW의 격차가 발생할 것으로 보입니다.

우주는 매력적인 대안을 제시합니다. 태양은 인류 전체 전력 생산량의 100조 배 이상의 에너지를 방출합니다. 적절한 궤도에서 태양광 패널은 거의 연속적으로 작동하며, 대기 간섭 없이 지구 동등 시스템보다 5~8배 더 많은 출력을 생성합니다.


Starcloud: 우주 최초 LLM 훈련

역사적 성과

Nvidia 지원 스타트업 Starcloud는 2025년 11월 2일 SpaceX 로켓에 Starcloud-1 위성을 발사했습니다. 작은 냉장고 크기의 60킬로그램 위성에는 궤도에 도달한 최초의 Nvidia H100 GPU가 탑재되어 있습니다.

Starcloud CEO이자 공동 창업자인 Philip Johnston은 IEEE Spectrum에 "H100은 지금까지 궤도에 있었던 어떤 GPU 컴퓨터보다 약 100배 더 강력합니다"라고 밝혔습니다.

회사는 셰익스피어 전집으로 NanoGPT(OpenAI 창립 멤버 Andrej Karpathy가 만든 대규모 언어 모델)를 훈련시켜 셰익스피어 스타일의 영어를 구사하는 모델을 만들었습니다. Starcloud-1은 또한 궤도에서 Google의 Gemma LLM을 실행하고 쿼리합니다.

Starcloud-1 기술 사양

사양 세부 내용
위성 질량 60 kg
주요 GPU Nvidia H100 (700W TDP)
컴퓨팅 성능 기존 우주 GPU의 100배
발사체 SpaceX Falcon 9
발사일 2025년 11월 2일
궤도 터미네이터 라인 (낮/밤 경계)

열 문제 해결

700와트 GPU를 궤도에 올리는 것은 엄청난 열 문제를 제시했습니다. 지구에서 H100 칩은 복잡한 수냉 및 공랭 시스템을 필요로 합니다. 우주에서는 대류를 통해 열을 운반할 공기가 존재하지 않습니다.

Starcloud CTO Adi Oltean과 그의 엔지니어링 팀은 전적으로 복사 냉각에 의존하는 시스템을 설계했으며, 대형 특수 패널을 사용하여 GPU가 생성하는 강렬한 열을 심우주의 극저온 진공(평균 온도: 2.7 켈빈 또는 -270.45°C)으로 직접 방출합니다.

Oltean은 "많은 혁신과 노력이 이 솔루션에 들어갔습니다"라고 밝혔습니다.

Starcloud 로드맵

단계 일정 사양
Starcloud-1 2025년 11월 단일 H100, 60 kg 위성
Starcloud-2 2026년 10월 다중 H100 + Blackwell 플랫폼
상용 위성 2026년 1 MW 태양광 어레이
하이퍼클러스터 Starship 서비스 개시 시 5 GW, 4km x 4km 태양광 어레이

회사는 Y Combinator 지원과 Nvidia Inception 프로그램 참여를 통해 1,000만 달러 이상을 조달했습니다. Nvidia의 Blackwell 플랫폼 통합은 현재 Hopper 아키텍처 대비 최대 10배 향상을 제공할 것입니다.


Google Project Suncatcher: 궤도의 TPU

비전

Google은 2025년 11월 Project Suncatcher를 발표했습니다. 이는 TPU와 자유 공간 광학 링크를 갖춘 태양광 위성군을 탐구하여 우주에서 머신러닝 컴퓨팅을 확장하는 문샷 프로젝트입니다.

회사는 Planet Labs와 협력하여 지구 상공 약 400마일의 저궤도에 2027년 초까지 두 대의 프로토타입 위성을 발사할 예정입니다.

기술 아키텍처

구성 요소 사양
궤도 새벽-황혼 태양동기궤도, 고도 650 km
클러스터 설계 81개 위성, 반경 1 km
위성 간격 가장 가까운 이웃 간 100-200 미터
위성 간 링크 DWDM을 통한 각 방향 800 Gbps (총 1.6 Tbps)
목표 대역폭 초당 수십 테라비트
TPU 모델 Trillium v6e Cloud TPU

방사선 테스트 결과

Google은 저궤도 방사선 수준을 시뮬레이션하기 위해 67 MeV 양성자 빔에서 Trillium TPU를 테스트했습니다:

테스트 결과 세부 내용
가장 민감한 구성 요소 고대역폭 메모리(HBM) 서브시스템
이상 발생 임계값 2 krad(Si) 누적 선량
예상 5년 미션 선량 ~0.7 krad(Si) (차폐 시)
안전 마진 예상 노출의 ~3배
최대 테스트 선량 영구적 고장 없이 15 krad(Si)

경제성 전망

Google은 우주 기반 AI 클러스터가 발사 비용이 킬로그램당 200달러 이하로 하락하면(현재 SpaceX를 통해 ~1,400달러/kg) 2035년까지 경제적으로 타당해질 수 있을 것으로 추정합니다.


글로벌 궤도 데이터 센터 경쟁

주요 참여자와 일정

기업/이니셔티브 현황 목표 규모 일정
Starcloud 최초 LLM 훈련 5 GW 궤도 시설 2030년대
Google Suncatcher 계획 중 81개 위성 클러스터 2027년 데모
중국 삼체 12개 위성 발사 2,800개 위성 2030년
SpaceX Starlink V3 개발 중 AI 컴퓨팅 탑재 Starlink 2026년
Blue Origin 연구개발 기가와트급 10-20년
Axiom Space 개발 중 자유 비행 ODC 노드 2025년 말

중국의 삼체 컴퓨팅 위성군

중국은 2025년 5월 14일 12개의 위성을 발사하며 "삼체 컴퓨팅 위성군"을 출범시켰습니다. SF 소설과 중력 물리학 문제의 이름을 딴 이 위성군은 [저장랩, 알리바바 그룹 및 기타 파트너들](https://spaceeyen

견적 요청_

프로젝트에 대해 알려주시면 72시간 내에 답변드리겠습니다.

> 전송_완료

요청이 접수되었습니다_

문의해 주셔서 감사합니다. 저희 팀이 요청사항을 검토한 후 72시간 내에 답변드리겠습니다.

처리_대기_중