CES 2026 半導体戦争:Intelの18Aブレイクスルー、NVIDIAのメモリ危機、AMDのAI反撃

IntelがCES 2026で初の18Aチップを発表する一方、NVIDIAはメモリ不足により40%の生産削減に直面。AMDはRyzen AI 400プロセッサで対抗。1月5日の3つの基調講演が、ノートPCからデータセンターまでコンピューティングの勢力図を塗り替える。

CES 2026 半導体戦争:Intelの18Aブレイクスルー、NVIDIAのメモリ危機、AMDのAI反撃

CES 2026 半導体戦争:Intelの18Aブレイクスルー、NVIDIAのメモリ危機、AMDのAI反撃

アリゾナ州チャンドラーにあるIntel Fab 52は、現在米国で製造される最先端の半導体チップを生産している。[^1] 初の18Aプロセッサは2026年1月に出荷され、Intelのプロセスリーダーシップへの凱旋復帰か、外部顧客がIntel Foundry Servicesへコミットする前の最後の重要な検証ポイントとなる。[^2]

要点まとめ

CES 2026では1月5日に3つの重要なチップ発表が行われる。IntelはPanther Lake(Core Ultra 300シリーズ)を発表する。これは同社初の18Aチップであり、前世代比でCPUとGPU性能が50%向上すると主張し、ファウンドリ事業の実現可能性を証明する。[^3] NVIDIAはメモリ配分の危機に直面しており、SamsungとSK Hynixがゲーミング製品の12倍の収益を生むAIデータセンター向けチップを優先するため、2026年前半のRTX 50シリーズ生産が30〜40%削減される可能性がある。[^4] AMDは、改良されたZen 5コアとAIワークロード向け最大180プラットフォームTOPSを搭載したRyzen AI 400「Gorgon Point」プロセッサを発表し、Copilot+ PCの波に向けてポジショニングを行う。[^5] エンタープライズインフラにとって、これらの発表はGPU制約の継続、統合AIアクセラレータという新たな選択肢の出現、そしてIntelのファウンドリが商業的な実現可能性を証明する中でのサプライチェーン多様化の可能性を示唆している。

Intelの18A:プロセス技術のブレイクスルー

18Aノードは、Intelにとって過去10年間で最も重要な製造上の成果を表している。10nmと7nmノードでの度重なる遅延によりTSMCにプロセスリーダーシップを奪われた後、Intelは18Aで頂点に達する加速ロードマップに社運を賭けた。[^6]

「18A」という名称は、Intelの改訂された命名規則を反映している。このノードは、2026年後半に予定されているTSMCのN2プロセスとほぼ同等のトランジスタ密度と性能を提供する。[^7] Intelの生産開始の先行により、2016年以来初めて製造リーダーシップを奪還できる立場にある。

18A技術仕様

パラメータ 18A仕様 競合比較
トランジスタアーキテクチャ RibbonFET (GAA)[^8] TSMC N2: GAA
電力供給 PowerVia(裏面)[^9] TSMC: N2P(2026年以降)で裏面電力
最小メタルピッチ 約18nm[^10] TSMC N2: 約18nm
推定密度 Intel 7の約2.5倍[^11] N2と同等
EUV層 複数[^12] 業界標準

RibbonFETは、Intelによるゲートオールアラウンド(GAA)トランジスタアーキテクチャの実装であり、22nm以降使用されてきたFinFET設計を置き換える。[^13] リボン形状のチャネルにより静電制御が向上し、リーク電流を低減して電圧スケーリングの継続を可能にする。[^14]

PowerViaはチップの裏面から電力を供給し、前面の信号配線から電力供給を分離する。[^15] このアプローチにより電力供給ネットワークの抵抗を低減しながら、信号用の配線リソースを確保し、性能と効率の両方を向上させる。[^16]

製造検証の重要性

Intel Foundry Services(IFS)は、カスタムシリコン開発でMicrosoftを含む外部顧客と契約を締結した。[^17] これらの契約は、18Aが競争力のある性能、歩留まり、コスト構造を提供することに依存している。

Panther Lakeが試金石となる。チップが予定通りに出荷され、許容範囲の歩留まりと競争力のある性能を達成すれば、IFSは現在TSMCとSamsungに依存している潜在的なファウンドリ顧客からの信頼を獲得する。[^18]

逆に、大幅な遅延、歩留まりの問題、または性能不足があれば、Intelの製造能力に対する疑念が強まることになる。同社は、2016年の予定から2019年の限定生産まで延びた10nmの遅延で信頼を失った。[^19]

アリゾナ州のFab 52での生産は、台湾での生産に関する地政学的リスクを懸念する顧客にアピールする国内製造能力を実証する。[^20] CHIPS法はIntelの米国製造拡大に85億ドルを投資しており、Panther Lakeの成功は国家産業政策の問題でもある。[^21]

Panther Lake:アーキテクチャの詳細

Panther LakeはIntelのCore Ultra 300シリーズを導入し、Lunar Lake(モバイル)とArrow Lake(デスクトップ/ハイパフォーマンスモバイル)の両方を後継する。[^22] このアーキテクチャは、Intelのモバイルラインナップを統合しながら、18A製造能力を実証する。

Panther Lakeと前世代の比較

仕様 Panther Lake Lunar Lake Arrow Lake
プロセスノード Intel 18A[^23] TSMC 3nm[^24] Intel 20A(コンピュート)、TSMC 5nm(I/O)[^25]
P-Coreアーキテクチャ Cougar Cove[^26] Lion Cove[^27] Lion Cove[^28]
E-Coreアーキテクチャ Darkmont[^29] Skymont[^30] Skymont[^31]
GPUアーキテクチャ Xe3[^32] Xe2[^33] Xe2[^34]
NPU世代 第5世代[^35] 第4世代[^36] 第4世代[^37]
パッケージ上メモリ なし[^38] あり(LPDDR5X)[^39] なし[^40]
最大メモリサポート DDR5-7200、LPDDR5X-9600[^41] LPDDR5X-8533(固定)[^42] DDR5-6400、LPDDR5X-8533[^43]

Lunar Lakeのメモリオンパッケージ方式から従来のディスクリートメモリへの回帰は、市場のフィードバックに対応したものである。メモリオンパッケージは電力効率を向上させマザーボードの複雑さを軽減したが、固定メモリ構成がアップグレードパスを制限しSKUの複雑さを増大させた。[^44]

コア構成と性能

フラッグシップのCore Ultra X9 388HはPanther Lakeの性能ポテンシャルを示す:

コンポーネント 仕様
P-Core 4x Cougar Cove @ ブースト5.1 GHz[^45]
E-Core 8x Darkmont[^46]
LP-E Core 4x Darkmont(低電力効率)[^47]
合計スレッド数 24[^48]
L3キャッシュ 36MB[^49]
GPU 12x Xe3コア @ 2.5-3.0 GHz[^50]
NPU 180プラットフォームTOPS(合計)[^51]
TDP範囲 15W-45W(設定可能)[^52]

Intelは、Arrow Lake比でシングルスレッドCPU性能が50%向上するか、同等性能で40%の消費電力削減を主張している。[^53] マルチスレッドワークロードでは50%以上の向上または30%の電力削減が見られる。[^54]

Xe3グラフィックスアーキテクチャ

Xe3統合GPUは、Xe-LP(統合)とXe-HPG(ディスクリート)に続くIntelの第3世代アーキテクチャを代表する。[^55] 主な改善点は以下の通り:

  • 高度なAV1エンコード/デコードアクセラレーション[^56]
  • AI推論向けに強化されたXMX(行列拡張)エンジン[^57]
  • クロックゲーティングと電圧最適化による電力効率の向上[^58]
  • DirectX 12 Ultimate機能の完全対応[^59]
  • レイトレーシングアクセラレーションの改善[^60]

12個のXe3コアが最大3.0 GHzのブーストクロックで動作することで、Panther Lakeの統合グラフィックスはエントリーレベルのディスクリートGPU性能を目標としている。[^61] この向上により、薄型軽量ノートPCでもディスクリートグラフィックスなしでカジュアルゲーミングやクリエイティブワークロードに対応できる。

NVIDIAのメモリ配分危機

Intelが製造の進歩を祝う一方、NVIDIAはコンシューマーGPUの供給を脅かすサプライチェーン制約に直面している。同社は2026年前半にGeForce RTX 50シリーズの生産を30〜40%削減する計画と報じられている。[^62]

メモリ配分の経済学

制約の原因はGDDR7メモリの供給にある。主要サプライヤーであるSamsungとSK Hynixは、単純明快な配分決定に直面している:

製品 1台あたりメモリ 1台あたり収益 メモリ1GBあたり収益
RTX 5080(ゲーミング) 16GB GDDR7[^63] 約1,000ドル[^64] 約62.50ドル/GB
H100(データセンター) 80GB HBM3[^65] 約25,000ドル[^66] 約312.50ドル/GB
Blackwell(データセンター) 192GB HBM3e[^67] 約40,000ドル以上[^68] 約208ドル/GB以上

データセンター向けGPUは、ゲーミング製品と比較してメモリ1GBあたり3〜5倍の収益を生み出す。[^69] メモリ生産能力が総出荷量を制約する場合、合理的な配分は高マージン製品を優先する。

NVIDIAのデータセンター収益は2025年第3四半期に512億ドルに達し、ゲーミングの43億ドルに対して約12:1の比率となった。[^70] この収益比率は、コンシューマーよりもエンタープライズを優先する配分決定を強化している。

生産削減の詳細

報道によると、特定のRTX 50シリーズSKUは異なるレベルの制約に直面している:

SKU メモリ構成 予想される影響
RTX 5090 32GB GDDR7X[^71] 中程度の制約(フラッグシップ優先)
RTX 5080 16GB GDDR7[^72] 軽度の制約(高マージン)
RTX 5070 Ti 16GB GDDR7[^73] 深刻な制約(30〜40%削減)
RTX 5060 Ti 16GB GDDR7[^74] 深刻な制約(30〜40%削減)
RTX 5070 12GB GDDR7[^75] 中程度の制約
RTX 5060 8GB GDDR7[^76] 軽度の制約(メモリ少量)

通常最高の価格性能比を提供するミッドレンジのRTX 5070 TiとRTX 5060 Tiが最も大きな削減に直面している。[^77] NVIDIAは、より高いマージンを確保できるRTX 5080と、制約されたリソースの消費が少ない低メモリ構成を優先する可能性がある。[^78]

パートナーサプライチェーンの混乱

業界報道によると、NVIDIAはサードパーティのグラフィックスカードメーカーへのGPUチップと同時のVRAM供給を停止する可能性がある。[^79] ASUS、MSI、GigabyteなどのAIB(アドインボード)パートナーは、独自にメモリを調達する必要が生じる。

小規模パートナーは、制約のある市場でメモリの割り当てを確保するための購買力を持っていない。このポリシー変更により、確立されたメモリサプライヤーとの関係を持つ大手メーカーにグラフィックスカード市場が集約される可能性がある。[^80]

RTX 50 SUPERの不確実性

通常、初期発売から12〜18ヶ月後に登場するRTX 50シリーズSUPERリフレッシュは、キャンセルまたは無期限延期の可能性に直面している。[^81] ベース製品がすでに供給制限に直面している状況では、メモリ制約によりミッドサイクルリフレッシュは経済的に魅力がない。

業界オブザーバーは、SUPERラインナップが生産される場合でも、2026年第3四半期以前には登場しないと予測している。[^82] この遅延により、価値最適化バリアントを待つゲーマーのアップグレードサイクルが延長される。

AMDの慎重な反撃

AMDのリサ・スーは1月5日午後6時30分(太平洋時間)にCES 2026のステージに登壇し、Intelの午後の基調講演に続く。[^83] 同社はPanther Lakeへの直接的な対抗としてRyzen AI 400「Gorgon Point」プロセッサを発表する。

Gorgon Pointアーキテクチャ

Gorgon Pointは新アーキテクチャではなく、改良されたリフレッシュを代表する:

コンポーネント Gorgon Point Strix Point(現行) 変更点
CPUアーキテクチャ Zen 5[^84] Zen 5[^85] 最適化のみ
GPUアーキテクチャ RDNA 3.5[^86] RDNA 3.5[^87] 最適化のみ
NPUアーキテクチャ XDNA 2[^88] XDNA 2[^89] 強化
最大コア数 12C/24T[^90] 12C/24T[^91] 同じ
最大ブーストクロック 5.2+ GHz[^92] 5.1 GHz[^93] +100+ MHz
L3キャッシュ 36MB[^94] 34MB[^95] +2MB
プロセスノード TSMC 4nm[^96] TSMC 4nm[^97] 同じ

この保守的なアプローチは、AMDの実行重視の戦略を反映している。潜在的な問題を抱える新アーキテクチャを導入するのではなく、実績のある設計を改良しながら、RDNA 4はディスクリートグラフィックスと将来のモバイルプラットフォーム向けに温存している。[^98]

予想されるRyzen AI 400 SKU

SKU コア数 ブーストクロック TDP ターゲット
Ryzen AI 9 HX 475[^99] 12C/24T 5.2+ GHz 45W以上 プレミアム
Ryzen AI 9 HX 470[^100] 12C/24T 5.1+ GHz 35-45W ハイエンド
Ryzen AI 7 450[^101] 8C/16T 未定 28-35W メインストリーム
Ryzen AI 5 430[^102] 4C/8T 未定 15-28W エントリー

この階層化されたラインナップは、AI支援機能に最低NPU性能を要求するMicrosoftのCopilot+ PC要件をターゲットにしている。[^103]

FSR 4:AI駆動アップスケーリング

AMDのFrame Super Resolution技術は、単に「AMD FSR」と改名されたと報じられるFSR 4で進化する。[^104] 新バージョンは、NVIDIAのDLSS技術に対抗するためAI駆動アップスケーリングを組み込んでいる。

以前のFSRバージョンは、専用AIハードウェアなしで空間的および時間的アップスケーリングアルゴリズムを使用していた。[^105] FSR 4は、RDNA 3.5のコンピュート能力と潜在的にはXDNA NPUリソースを機械学習ベースの画像再構成に活用する。[^106]

このシフトは、AMDのより広範なハードウェア戦略の範囲内で作業しながら、DLSSの品質面での優位性を認めている。

[翻訳のため内容を省略]

お見積り依頼_

プロジェクトについてお聞かせください。72時間以内にご回答いたします。

> TRANSMISSION_COMPLETE

リクエストを受信しました_

お問い合わせありがとうございます。弊社チームがリクエストを確認し、72時間以内に回答いたします。

QUEUED FOR PROCESSING