CoreWeave徹底解説:元暗号マイニング企業はいかにしてAIに不可欠なクラウドとなったか
2025年12月8日更新
2025年12月アップデート: CoreWeaveは2025年3月に15億ドルのIPOを完了—2021年以来初の大型テックIPOとなった。2024年の売上高は737%増の19.2億ドルに成長。OpenAIとは総額224億ドルの契約を締結し、Metaとは142億ドルの契約を締結した。現在、32以上のデータセンターで25万台以上のGPUを運用している。GB200 NVL72(2025年2月)とGB300 NVL72(2025年7月)の両方を商用展開した最初の企業となった。欧州への投資コミットメントは35億ドルに達している。Microsoftの将来売上に占める割合が50%を下回り、顧客集中度は改善傾向にある。
OpenAIは次のインフラ拡張フェーズにおいて、AWS、Azure、Google Cloudを選ぶこともできた。しかし同社は2025年3月にCoreWeaveと120億ドルの契約を締結し、続いて9月には105億ドルの追加契約を結び、5年間で総額224億ドルに達した。¹ Metaも2031年までの142億ドルのインフラコミットメントで続いた。² CoreWeaveは2017年に3人で始めた暗号通貨マイニング事業から、地球上で最も要求の厳しいAIワークロードを処理する評価額230億ドルのGPUクラウドプロバイダーへと変貌を遂げた。同社の台頭は、現代AIのインフラ需要と、ハイパースケーラーが複製に苦戦するアーキテクチャ上の決定の両方を明らかにしている。
Ethereumマイニングからインフラへ
CoreWeaveの創業ストーリーは、ニュージャージー州のオフィスで、創業者のMichael Intrator、Brian Venturo、Brannin McBeeがEthereumマイニング用のGPUリグを組み立てていたところから始まる。暗号通貨ブームは、後にAIワークロードで不可欠となるGPU経済学、熱管理、高密度デプロイメントに関する重要な教訓を彼らに与えた。2022年にEthereumがプルーフ・オブ・ステークに移行し、GPUマイニングの必要性がなくなると、CoreWeaveは生成AIが登場するちょうどそのタイミングでクラウドコンピューティングへとピボットした。
そのタイミングは驚異的だった。2022年11月にChatGPTがローンチされ、AWS、Azure、Google Cloudでは対応できないほどの前例のないGPUコンピュート需要が発生した。CoreWeaveの既存GPU在庫と調達関係により、同社はハイパースケーラーが満たせない需要を獲得する位置にいた。NVIDIAはGPU不足の中で割り当て決定に直面し、競合するAIチップを開発しているハイパースケーラーではなくCoreWeaveに供給を向けた。³
NVIDIAの2億5000万ドルの投資と継続的な優先割り当ては、両社に利益をもたらす共生関係を生み出した。CoreWeaveは、競合シリコンを開発していないNVIDIAの最大のGPUクラウド顧客であり、このパートナーシップは財務的条件を超えた戦略的価値を持つ。この取り決めにより、MicrosoftやGoogleでさえ割り当て確保に苦心するほどの不足時にも、CoreWeaveはGPU供給を確保できた。
売上成長は需要の軌跡を反映している:2022年の1600万ドルから2023年には2億2900万ドル、2024年には19.2億ドルへと成長—わずか1年で737%の増加だ。⁴ 2025年3月のIPOは時価総額約350億ドルで15億ドルを調達し、CoreWeaveは2021年の活況な市場以来初の大型テックIPOとなった。
ベアメタルの優位性
CoreWeaveの技術アーキテクチャは、ハイパースケーラーのアプローチとは根本的に異なる。従来のクラウドプロバイダーはGPUリソースを仮想化し、レイテンシを増加させ利用可能なコンピュート容量を減少させるハイパーバイザー層を追加する。CoreWeaveはベアメタルサーバー上でKubernetesを直接実行し、専用ハードウェアのパフォーマンスでクラウドのような柔軟性を提供する。⁵
CoreWeave Kubernetes Service(CKS)は、ワークロードとGPUハードウェアの間に仮想マシンやハイパーバイザーなしでクラスターをデプロイする。各ノードに接続されたNVIDIA BlueField Data Processing Units(DPU)がネットワーキングとセキュリティタスクをオフロードし、GPUが計算のみに集中できるようにする。⁶ DPUアーキテクチャにより、カスタムネットワークポリシー、専用Virtual Private Cloud、特権アクセス制御などの高度なセキュリティ機能を、GPU使用率を犠牲にすることなく実現できる。
分散AI学習においてはネットワークアーキテクチャも同様に重要だ。CoreWeaveは、数千台のGPUにわたるコレクティブ操作に最適化されたノンブロッキングのファットツリートポロジを持つNVIDIA Quantum-2 InfiniBandファブリック上にバックボーンを構築した。⁷ NVIDIAのScalable Hierarchical Aggregation and Reduction Protocol(SHARP)は、学習の通信パターンを支配する勾配同期をさらに高速化する。ネットワークは数万台のGPUを確実に接続し、6桁規模のクラスターサイズへのスケーリング能力を持つ。
ハイパースケーラーは同様のGPU密度を実現しようとする際に構造的な摩擦に直面する。レガシーデータセンター設計、仮想化税、従来のクラウドワークロード向けに最適化されたネットワークトポロジは、CoreWeaveの専用インフラが回避するボトルネックを生み出す。AWSやAzureはH100をデプロイできるが、同等の学習時間とリファレンススループットを達成するには、生成AI登場のはるか以前に下されたアーキテクチャ決定を克服する必要がある。
AI時代のデータセンター戦略
CoreWeaveは北米と欧州の32以上のデータセンターを運営し、数百メガワットの電力容量で25万台以上のGPUを収容している。⁸ 拡張ペースは2025年を通じて加速し、H200 GPUを搭載した2つの英国データセンターが1月に稼働開始し、ノルウェー、スウェーデン、スペインの欧州大陸サイトには22億ドルの投資コミットメントが行われた。
2025年にオープンするCoreWeave施設のほとんどは、ネイティブな液冷機能を備えている。既存施設のごく一部を改修するレガシー事業者とは異なり、CoreWeaveは基礎から屋根まで液冷を中心にデータセンター全体を設計している。⁹ このアプローチにより、次世代GPUデプロイメントに必要な130kW以上のラックをサポートできる—改修投資に関係なく空冷施設では達成できない密度レベルだ。
戦略的パートナーシップにより、すべての場所に資本支出を必要とせずにCoreWeaveのリーチを拡大している。Flexentialとの提携により、追加市場で高密度コロケーション容量を提供している。¹⁰ Core Scientificは、年間約2億9000万ドルの支払いを伴う12年契約で200メガワットのインフラをコミットした。¹¹ これらの取り決めにより、パートナー間で資本要件を分散しながら容量デプロイメントを加速している。
2025年2月のGB200 NVL72デプロイメントにより、CoreWeaveはNVIDIAのBlackwellアーキテクチャを商用提供する最初のクラウドプロバイダーとなった。¹² 2025年7月にはDellサーバーを通じて提供されるGB300 NVL72(Blackwell Ultra)システムの最初の商用デプロイメントという別のマイルストーンを達成した。¹³ 次世代ハードウェアへの早期アクセスは、連続するGPU世代にわたって強化される競争上の堀を生み出す。
ハイパースケーラーの経済性に挑戦する価格設定
CoreWeaveの価格構造は、同等のGPU構成に対してハイパースケーラーを一貫して30〜60%下回っている。¹⁴ InfiniBandネットワーキング付きのH100は、CoreWeaveで約6.16ドル/GPU時間で、Azureの6.98ドルやAWSの値下げ後の約3.90ドルと比較される。¹⁵ リザーブドキャパシティコミットメントにより、オンデマンド料金から最大60%の割引を受けられる。
A100の比較はさらに顕著だ:CoreWeaveで1時間あたり2.39ドルに対し、Azureで3.40ドル、Google Cloudで3.67ドル。¹⁶ 640万GPU時間を必要とする700億パラメータモデルの学習ジョブでは、CoreWeaveは約3900万ドルで、AWSやAzureの4500〜4800万ドル、Google Cloudの7100万ドルと比較される。
価格のシンプルさがその優位性を複合的に高める。CoreWeaveはGPU、CPU、RAM、ネットワーキングをインスタンスごとの時間料金にバンドルし、容量計画のための予測可能な請求を提供する。ハイパースケーラーはコンピュート、ストレージ、データ転送、補助サービスを別々に課金し、コスト予測を困難にする複雑な請求を生み出す。CoreWeaveのデータ転送料金ゼロは、頻繁なデータ転送を必要とするAIワークロードにとって大きなコストカテゴリーを排除する。
ハイパースケーラーはサービスエコシステムの幅広さで優位性を保持している。AWS SageMaker、Google Vertex AI、AzureのAIプラットフォームは、CoreWeaveのインフラ重視のオファリングにはないマネージドサービス、分析ツール、事前構築された統合を提供する。既存のクラウドエコシステムとの深い統合を必要とする組織は、統合の複雑さと運用オーバーヘッドの削減によってハイパースケーラーのプレミアムが正当化されると感じるかもしれない。
顧客集中と多様化
CoreWeaveの顧客集中は機会と脆弱性の両方を生み出した。Microsoftは2024年売上の62%を占め、2025年第2四半期の売上では71%に達した—単一顧客への異常な依存度だ。¹⁷ この集中は、ChatGPTの予想外の成功が既存インフラを圧倒した後、OpenAIワークロードを処理するためのGPU容量に対するMicrosoftの緊急ニーズから生まれた。
OpenAIとMetaの契約は顧客構成を根本的に変える。CEOのMichael Intratorは、OpenAI、Meta、その他の顧客がその利用を拡大するにつれて、Microsoftは将来のコミットされた契約収益の半分未満になると述べた。¹⁸ この多様化は単一顧客リスクを減少させると同時に、CoreWeaveの価値提案がMicrosoftの特定の要件を超えて広がることを示している。
Cohere、Mistral、Poolsideなどの小規模AI企業が大型契約を補完している。¹⁹ これらの顧客は、CoreWeaveの価格とパフォーマンスの優位性が引き付ける広範なAI開発コミュニティを代表している。AIモデル開発が少数のフロンティアラボを超えて広がるにつれて、この中間市場セグメントは大型エンタープライズ契約と同様に戦略的に価値あるものになる可能性がある。
Sam Altmanはこの関係を明確に特徴づけた:「CoreWeaveはOpenAIのインフラポートフォリオへの重要な追加であり、MicrosoftやOracleとの商業契約、SoftBankとのStargateジョイントベンチャーを補完するものです。」²⁰ ハイパースケーラーとの関係を持つ組織でさえ、特定のワークロードにCoreWeaveの特化したGPUクラウドが価値あると感じている。
財務的現実と市場の懸念
CoreWeaveの成長には大きな財務的複雑さが伴う。同社は12回の資金調達ラウンドで145億ドル以上の負債と株式を調達し、これには2024年5月のBlackstoneとMagnetarが主導する70億ドルのプライベートデット施設が含まれる。²¹ 資本集約的なモデルは、競争力のあるポジショニングを維持するためにGPU在庫とデータセンター容量への継続的な投資を必要とする。
純損失は売上成長737%にもかかわらず、2023年の5億9400万ドルから2024年には8億6300万ドルに拡大した。²² 損失の軌跡は運用上の非効率性ではなく積極的な容量拡大を反映しているが、投資家は成長が最終的に蓄積された負債を返済するのに十分なリターンを生み出すかどうかを精査している。GPU資産の金利費用と減価償却は、利益に達する前にかなりの売上を消費する。
市場の懸念は顧客集中、競争力学、現在の需要レベルの持続可能性に集中している。一部のアナリストはこのビジネスモデルを、収益性のあるスケールに達することなく資本要件が継続的に拡大する「GPU負債の罠」と特徴づけている。²³ NVIDIAの優先割り当ては理論的には他のパートナーにシフトし、CoreWeaveの供給優位性を損なう可能性がある。
反論はAIインフラ需要が減速の兆候を見せていないことに集中している。OpenAI、Anthropic、Google、Meta、その他数十の組織がモデルサイズの増大と推論需要の成長に伴いコンピュート容量を拡大し続けている。CoreWeaveの先行者優位性、技術アーキテクチャ、顧客関係は、新規参入者が容易に複製できない障壁を生み出している。インフラ構築はAIの継続的拡大への賭けを表している—現在の証拠がこの仮説を支持している。
GPUクラウド市場における競争ポジショニング
GPUクラウド市場はハイパースケーラー(AWS、Azure、Google Cloud)と特化型プロバイダー(CoreWeave、Lambda Labs、Together AI、Hyperbolic)に分かれている。CoreWeaveは特化型セグメントのプレミアム層に位置し、ハイパースケーラー料金を下回る価格を維持しながらエンタープライズ機能と大規模スケールを提供している。
Lambda Labsは競争力のあるH100価格(約2.99ドル/GPU時間)を提供しているが、