IBM CEO:ハイパースケーラーのAIインフラ投資が「回収できるはずがない」と発言

IBM CEOがハイパースケーラーの設備投資計算に疑問を呈す。ビッグ4は2025年のインフラ支出に3,800億ドル以上を投入予定。

IBM CEO:ハイパースケーラーのAIインフラ投資が「回収できるはずがない」と発言

IBM CEO:ハイパースケーラーのAIインフラ投資が「回収できるはずがない」と発言

2025年12月10日 執筆:Blake Crosley

IBM CEOのArvind Krishnaは2025年12月3日、ハイパースケーラーのAIインフラ投資の経済性について公に疑問を呈し、単純な計算をしただけでもテック企業の大規模データセンター投資には「回収の見込みがない」と述べた。1「私の見解では、投資回収は不可能です。8兆ドルの設備投資は、利息を支払うだけでも約8,000億ドルの利益が必要になるからです」とKrishnaは述べた。[^2] さらにKrishnaは、GPUの減価償却が最も過小評価されているリスクだと主張した。「5年以内にすべて使い切る必要があります。その時点で廃棄して入れ替えなければならないからです。」[^3]

Krishnaの発言は、ハイパースケーラーがAIインフラに前例のない資本を投入している時期に行われた。ビッグ4の2025年の設備投資額は合計で3,800億ドルを超える見通しであり、CreditSightsは2026年までの累計設備投資額が6,020億ドルに達すると予測している。[^4]

2025年ハイパースケーラー設備投資計画:

企業 2025年設備投資 前年比 AI関連
Amazon (AWS) 1,250億ドル +35% AI/クラウドインフラ
Google (Alphabet) 910-930億ドル +40% データセンター、AIコンピュート
Microsoft 800-890億ドル +25% Azure AIインフラ
Meta 700-720億ドル +28% AIトレーニングクラスター
合計 3,800億ドル以上 +32% 約75%がAI関連

この数字は根本的な矛盾を生み出している:2025年のAIクラウド収益は合計で500-600億ドル程度と見込まれる一方、設備投資は3,800億ドルを超える。投資対収益比率は6:1となり、これを正当化するには何年もの3桁成長が必要となる。[^5]

Krishnaの主張

Krishnaの批判は、技術的な能力ではなく基本的な財務数学に焦点を当てており、相互に関連する3つの懸念事項を中心としている:金利コスト、減価償却期間、そしてAGIの不確実性である。

金利コスト分析

Krishnaが言及した8兆ドルの累計設備投資と8,000億ドルの必要利益は、インフラ投資の金利負担を浮き彫りにしている。1ギガワットのデータセンター容量を構築するには、現在のドル換算で約800億ドルのコストがかかる。[^6] AGIを追求する世界全体のコミットメントは100ギガワットに近づいており、その価格は約8兆ドルとなる。

現在の金利では、8兆ドルの資本は株主へのリターンを生み出す前に、資金調達コストを賄うだけで年間約8,000億ドルの利益が必要となる。参考までに、Microsoft、Google、Amazon、Metaの2024年の純利益合計は約2,000億ドルだった。[^7] この計算によれば、AIは金利だけを賄うために現在の総利益の4倍を生み出す必要がある。

減価償却の時限爆弾

Krishnaは減価償却を「投資家に最も過小評価されている計算の一部」と指摘した。[^3] ハイパースケーラーはGPUインフラを5〜6年で減価償却しているが、NVIDIAは以前の2年サイクルに対して、現在は毎年新しいアーキテクチャをリリースしている。[^8]

GPU減価償却の実態:

指標 会計上の扱い 経済的実態
耐用年数 5-6年 1-3年
減価償却率 17-20%/年 33-100%/年
残存価値 耐用年数終了時に約0% 3年目に約0%
アーキテクチャサイクル 安定を想定 年次リリース

Michael Burryは、Meta、Oracle、Microsoft、Google、Amazonなどの企業がGPUの耐用年数を過大評価し、減価償却を過小評価していると主張し、実際の耐用年数は2〜3年だと指摘している。[^9] Googleのアーキテクトは、データセンターのGPUは利用率によって1〜3年しか持たない可能性があり、これは陳腐化ではなく熱ストレスによるものだと報告されている。[^10]

通信バブルとの類似性

テクノロジーインフラ投資は歴史的に過剰供給を生み出してきた。光ファイバーブーム(1995-2000年)の間、企業は推定2兆ドルを投じて8,000万〜9,000万マイルの光ファイバーネットワークを構築した。[^11] 2001年までに、95%がダークファイバーのまま残った—実現しなかった需要を待つ未使用容量である。[^12]

通信バブル vs. AIインフラ:

指標 通信(1995-2000年) AI(2023-2025年)
総投資額 約2兆ドル 約6,000億ドル(2024-2025年)
ピーク時の利用率 5% 不明
株価下落 98%(Corning、Ciena) 未定
回復期間 5-10年 未定

Corningの株価は2002年までに100ドルから1ドルに暴落した。Global Crossing、WorldCom、360networksは破産申請した。2000年から2002年の間に、世界の通信株は2兆ドル以上の時価総額を失った。[^13]

AGIへの懐疑

Krishnaは、現在のアーキテクチャがAGIを達成できるかどうかを疑問視し、根本的なブレイクスルーがなければその確率は「約0〜1%」と見積もった。[^14] AGIが実現しなければ、AGI規模のコンピュートのために構築されたインフラは、実際のアプリケーションに対して過大であることが判明する可能性がある。

反論

ハイパースケーラーの経営陣は、Krishnaの批判に対して実質的な反論を提示している。

需要が供給を上回っている

Amazon CEOのAndy Jassyは、容量は「実際に投入するのと同じ速さで消費されている」と述べた。[^15] AWSのAIビジネスは「前年比3桁成長」で運営されており、「AWS自体がこの段階で成長したよりも3倍以上速く」拡大している。[^16] 2025年第3四半期のクラウド収益成長は堅調を維持:AWS +20%で330億ドル、Azure +40%、Google Cloud +34%で151.5億ドル。[^17]

グローバルクラウドインフラ支出は2025年第2四半期に953億ドルに達し、4四半期連続で20%以上の成長を記録した。[^18] 需要は投機的ではなく実際のものに見える。

バリューカスケード論

擁護派は、GPUの耐用年数は「バリューカスケード」—チップをトレーニングから推論、さらにユーティリティワークロードへと再利用すること—によって延長されると主張している。[^19] CoreWeaveのCEOは、2020年製のA100チップは依然としてフル稼働しており、最近利用可能になったH100は元の価格の95%で即座に予約されていると述べた。[^20]

トレーニングには最新のアーキテクチャが必要だが、推論ワークロード—高ボリュームで高収益—は古いチップでも効率的に実行できる。トレーニングから推論、ファインチューニングへの進行により、経済的耐用年数は潜在的に5年に延長される可能性がある。

戦略的な堀

インフラ投資は、後発参入者が複製できない障壁を作り出す。MicrosoftのAzureインフラはエンタープライズAIのポジションを守る。Googleのコンピュートは検索をAI代替から守る。Metaのトレーニング能力は、小規模な競合他社には実現できない基盤モデルの開発を可能にする。

ROIを超えた戦略的価値:

企業 戦略的必要性 インフラの役割
Microsoft エンタープライズAIリーダーシップ Azure AI差別化
Google 検索防衛 Gemini開発能力
Amazon クラウド支配 AWSサービス拡大
Meta ソーシャルAI機能 Llamaモデルトレーニング

長期的な時間軸

通信バブルの明るい側面は示唆に富む:2000年に過剰に敷設されたファイバーが、YouTube(2005年)、Netflixストリーミング(2007年)、クラウドコンピューティング(2006年以降)を可能にした。[^21] 過剰供給による安価な帯域幅が、まったく新しいビジネスモデルを生み出した。

同様に、AIインフラの過剰供給は—もし実現すれば—GPUレンタルコストを下げ、現在は経済的でないAIアプリケーションを可能にするだろう。元の投資家が損失を被ったとしても、インフラは基盤的なものとなる可能性がある。

インフラ計画の意思決定フレームワーク

Krishnaの批判は、AIインフラ投資を評価する組織にとって実行可能な示唆を生み出している。

インフラ戦略マトリックス:

シナリオ Krishnaが正しい場合 Krishnaが間違っている場合
自社インフラを構築した 座礁資産、低ROI 競争優位
ハイパースケーラーからレンタル 価格低下、柔軟性維持 価格安定、容量利用可能
待機する 低コストで参入 先行者利益を逃す

Krishnaが正しいと判明した場合

構築ではなくレンタルする組織はオプション性を維持できる。過剰供給は現在の2.85〜3.50ドル/時間から1〜2ドル/時間へとH100価格を押し下げるだろう。[^22] 柔軟性条項付きのレンタル契約は、長期コミットメントより優れている。

監視すべき指標: - ハイパースケーラーの利用率が70%を下回る - GPUスポット価格が四半期ごとに20%以上低下 - 決算説明会での設備投資ガイダンスの削減 - 主要プロジェクトのキャンセルまたは遅延

Krishnaが間違っていると判明した場合

早期に容量を確保した組織は、希少性プレミアムと固定価格の恩恵を受ける。AIアプリケーションにおける先行者利益は時間とともに複利効果を生む。インフラ制約は既存事業者に有利に働くだろう。

監視すべき指標: - 2026年まで持続する3桁のAI収益成長 - GPU価格の安定化または上昇 - ハイパースケーラーの設備投資ガイダンス増加 - 新アーキテクチャリリースの遅延

ヘッジアプローチ

ほとんどの組織は、方向性に賭けるのではなくヘッジすべきである:

  1. 現在のニーズの60-70%をレンタル - 柔軟性を維持
  2. 30-40%をコミット容量として確保 - 重要なワークロードの可用性を保証
  3. 柔軟性条項を交渉 - ペナルティなしのスケーリング権
  4. 四半期ごとに監視 - 市場シグナルに基づいて配分を調整

専門家のガイダンス

この規模と不確実性のインフラ決定には、経験豊富な視点が有益である。

Introlの550人のフィールドエンジニアネットワークは、構築、レンタル、ハイブリッド戦略にわたってAIインフラ経済性を評価する組織をサポートしている。[^23] 同社は2025年Inc. 5000で14位にランクインし、3年間で9,594%の成長を達成しており、インフラアドバイザリーサービスへの需要を反映している。[^24]

257のグローバル拠点にわたる専門知識は、多様な市場条件におけるインフラ投資への視点を提供している。[^25] Introlは100,000 GPUに達するデプロイメントを管理しており、利用率最適化とコスト管理に関する運用上の洞察を提供している。[^26]

重要なポイント

インフラプランナー向け: - 資本投入前に、Krishna正解シナリオとKrishna不正解シナリオの両方をモデル化する - 利用率が80%を超えない限り、自社インフラより柔軟性条項付きレンタルを優先 - ハイパースケーラーの利用率と価格動向を四半期ごとに監視 - 複数年コミットメントには解約条項を組み込む

財務アナリスト向け: - 経営陣の懸念を示す減価償却方針の変更に注目 - 5〜6年の会計上の耐用年数と1〜3年の経済的実態を比較 - 設備投資成長率に対するAI収益成長率を追跡 - インフラ重視のポートフォリオにおける座礁資産リスクを評価

戦略プランナー向け: - 過剰供給は投資家に損害を与えても消費者に利益をもたらすことを認識 - インフラコストが30-50%低下した場合の後発者利益を検討 - 同業他社が過剰投資して評価損に直面した場合の競争力学を評価 - ハイブリッドクラウドアーキテクチャを通じてオプション性を維持

見通し

Krishnaの批判は業界の熱狂の中では少数派の見解だが、その数学的分析は真剣な検討に値する。2025年の3,800億ドルの設備投資を正当化するには、前例のない収益創出が必要である—楽観的すぎる可能性のある減価償却スケジュールに対して、何年も持続しなければならない収益成長である。

この議論の解決よりも重要なのは、その対応である:組織は賭けるのではなくヘッジすべきである。レンタルの柔軟性、条件交渉、シグナルの監視、オプション性の維持。Krishnaが預言者であれ逆張り投資家であれ、コンセンサスの前提ではなくシナリオ分析に基づいたインフラ決定を行う準備ができた組織が恩恵を受ける。

Krishna自身がインフラへの懐疑にもかかわらず述べたように:「明確にしておくと、AIはエンタープライズで数兆ドルの生産性を解放すると思います。」[^27] 問題はAIが価値を創出するかどうかではなく、現在のインフラ投資水準がその価値創出のタイムラインと規模に見合っているかどうかである。

参考文献

[翻訳のためコンテンツを省略]


  1. Fortune. "IBM CEO warns there's 'no way' hyperscalers like Google and Amazon will be able to turn a profit at the rate of their data center spending." December 3, 2 

お見積り依頼_

プロジェクトについてお聞かせください。72時間以内にご回答いたします。

> TRANSMISSION_COMPLETE

リクエストを受信しました_

お問い合わせありがとうございます。弊社チームがリクエストを確認し、72時間以内に回答いたします。

QUEUED FOR PROCESSING