Rencana Data Center Anthropic Senilai $50 Miliar: Laboratorium AI Menjadi Pembangun Infrastruktur

Anthropic mengikuti jejak OpenAI dalam membangun infrastruktur sendiri, mengubah dinamika antara laboratorium AI dan hyperscaler.

Rencana Data Center Anthropic Senilai $50 Miliar: Laboratorium AI Menjadi Pembangun Infrastruktur

Rencana Data Center Anthropic Senilai $50 Miliar: Laboratorium AI Menjadi Pembangun Infrastruktur

10 Des 2025 Ditulis Oleh Blake Crosley

Anthropic menandatangani kemitraan data center senilai $50 miliar dengan penyedia neocloud asal Inggris, Fluidstack, pada 12 November 2025, berkomitmen untuk membangun fasilitas di Texas dan New York yang akan beroperasi sepanjang 2026.[^1] Proyek ini menciptakan sekitar 800 lapangan kerja permanen dan 2.400 lapangan kerja konstruksi, menandai upaya besar pertama Anthropic untuk membangun infrastruktur khusus alih-alih mengandalkan penyedia cloud.[^2]

Pengumuman ini merupakan satu bagian dari strategi infrastruktur multi-cloud yang belum pernah terjadi sebelumnya. Anthropic secara bersamaan mempertahankan akses ke AWS Project Rainier (500.000 chip Trainium2 yang akan ditingkatkan menjadi 1 juta), Google Cloud TPU (hingga 1 juta chip), dan komitmen baru Microsoft Azure senilai $30 miliar dengan investasi $15 miliar dari NVIDIA dan Microsoft.[^3][^4][^5]

Portofolio Infrastruktur Anthropic:

Kemitraan Komitmen Kapasitas Status
Fluidstack $50M Data center Texas + New York Online 2026
Microsoft Azure $30M + investasi $15M Grace Blackwell, Vera Rubin Aktif
AWS Project Rainier Akses infrastruktur 500K→1J chip Trainium2 Aktif
Google Cloud Multi-tahun Hingga 1J chip TPU, 1+ GW Aktif
Total Komitmen $95M+ Multi-gigawatt 2025-2026

Pendekatan multi-cloud ini sangat kontras dengan proyek Stargate milik OpenAI—sebuah joint venture senilai $500 miliar dengan SoftBank, Oracle, dan MGX yang menargetkan 10 gigawatt pada 2029.[^6] Strategi terdistribusi Anthropic melakukan lindung nilai akses komputasi di berbagai arsitektur (NVIDIA, Trainium, TPU) dan penyedia.

Alasan strategis

Investasi infrastruktur Anthropic mengatasi kendala kritis yang dihadapi laboratorium AI frontier seiring model berkembang menuju kecerdasan umum buatan.

Lindung nilai multi-arsitektur

Melatih model frontier kini membutuhkan cluster puluhan ribu akselerator yang bekerja secara bersamaan.[^7] Alih-alih bertaruh pada satu arsitektur, Anthropic mengamankan akses di tiga platform yang bersaing:

Perbandingan Akselerator:

Arsitektur Penyedia Keunggulan Akses Anthropic
NVIDIA Grace Blackwell Microsoft Azure Performa pelatihan puncak, ekosistem Komitmen $30M
AWS Trainium2 Amazon Efisiensi biaya, silicon khusus 500K→1J chip
Google TPU v5 Google Cloud Efisiensi inferensi, rasio harga-performa Hingga 1J chip

Diversifikasi ini memastikan tidak ada satu pemasok pun yang dapat membatasi kapasitas pelatihan Anthropic. Jika alokasi NVIDIA mengetat, Anthropic mengalihkan beban kerja ke Trainium atau TPU. Jika AWS memprioritaskan pelanggan lain, Azure menyediakan kapasitas cadangan.

Persyaratan skala untuk Claude

Claude Opus 4.5, dirilis November 2025, merupakan model paling kapabel dari Anthropic.[^8] Melatih generasi berikutnya membutuhkan alokasi komputasi yang lebih besar lagi. Project Rainier menunjukkan skalanya: cluster ini membentang di tiga negara bagian (Pennsylvania, Indiana, Mississippi) dengan sebagian besar chip digunakan untuk inferensi dan proses pelatihan dijalankan pada jam malam ketika permintaan inferensi menurun.[^9]

Anthropic akan memiliki akses ke lebih dari satu gigawatt kapasitas yang akan online pada 2026 melalui Google Cloud saja.[^10] Dikombinasikan dengan fasilitas Fluidstack dan infrastruktur AWS, total kapasitas mendekati skala multi-gigawatt—komputasi yang sebelumnya hanya tersedia bagi hyperscaler terbesar.

Arbitrase ekonomi

Harga sewa GPU cloud telah turun dari $8/jam (H100, awal 2024) menjadi $2,85-3,50/jam (akhir 2025), tetapi pelatihan berkelanjutan tetap mengakumulasi jutaan dolar dalam biaya.[^11] Infrastruktur milik sendiri mengubah biaya operasional variabel menjadi investasi modal dengan karakteristik ekonomi yang berbeda.

Ekonomi Pelatihan dalam Skala Besar:

Metrik Sewa Cloud Infrastruktur Milik Sendiri
10.000 GPU-bulan $20-25J $15-18J (diamortisasi)
Fleksibilitas kapasitas Instan Lead time 12-24 bulan
Pilihan arsitektur Tergantung penyedia Ditentukan sendiri
Risiko aset terlantar Tidak ada Signifikan

Kemitraan Fluidstack memberikan jalan tengah: fasilitas yang dibangun khusus untuk beban kerja Anthropic tanpa risiko kepemilikan penuh.

Struktur kemitraan

Kemitraan Fluidstack merepresentasikan taruhan terkalkulasi pada ketangkasan neocloud dibanding skala hyperscaler.

Mengapa Fluidstack

Fluidstack, didirikan pada 2017, menunjukkan kemampuannya pada awal 2025 ketika dinobatkan sebagai mitra utama untuk proyek AI 1-gigawatt yang didukung pemerintah Prancis dengan nilai belanja lebih dari $11 miliar.[^12] CEO Anthropic Dario Amodei memilih Fluidstack karena "kemampuannya bergerak dengan ketangkasan luar biasa, memungkinkan pengiriman cepat gigawatt daya."[^13]

Model neocloud Fluidstack berbeda dari pendekatan hyperscaler: - Kecepatan: Hitungan bulan, bukan tahun, untuk pengiriman fasilitas - Kustomisasi: Infrastruktur dioptimalkan untuk pola beban kerja spesifik Anthropic - Ekonomi: Tanpa margin hyperscaler, pass-through biaya langsung - Fleksibilitas: Ketentuan kontrak disesuaikan dengan kebutuhan laboratorium AI

Strategi geografis

Lokasi Texas dan New York melayani tujuan strategis yang berbeda:

Fasilitas Texas: - Biaya listrik lebih rendah ($0,04-0,06/kWh vs. $0,12+ di tempat lain) - Lingkungan regulasi yang mendukung pengembangan data center - Kedekatan dengan infrastruktur Stargate yang ada di Abilene - Fokus utama: Proses pelatihan skala besar

Fasilitas New York: - Konektivitas premium ke pelanggan sektor keuangan - Akses latensi rendah ke pusat populasi Timur Laut - Kedekatan dengan pelanggan enterprise untuk layanan Claude API - Fokus utama: Penyajian inferensi, deployment enterprise

Investasi kepemimpinan

Anthropic merekrut Rahul Patil sebagai CTO pada Oktober 2025, khusus untuk mengawasi operasi komputasi, infrastruktur, inferensi, dan engineering.[^14] Latar belakang Patil sebagai CTO Stripe menandakan komitmen Anthropic pada infrastruktur sebagai kompetensi inti, bukan fungsi yang di-outsource.

Perbandingan Stargate: Dua model untuk infrastruktur AI

Kontras antara strategi terdistribusi Anthropic dan pendekatan terkonsentrasi Stargate OpenAI mengungkapkan perbedaan filosofis yang fundamental.

Perbandingan Strategi Infrastruktur:

Dimensi Anthropic OpenAI Stargate
Total komitmen $95M+ (terdistribusi) $500M (terkonsentrasi)
Timeline 2025-2026 Hingga 2029
Arsitektur Multi-vendor (NVIDIA, Trainium, TPU) NVIDIA-utama
Kepemilikan Model kemitraan Joint venture (masing-masing 40% SoftBank, OpenAI)
Sebaran geografis Beberapa fasilitas, 3+ region cloud 6+ lokasi, target 10 GW
Profil risiko Lebih rendah (terdiversifikasi) Lebih tinggi (terkonsentrasi)

Stargate OpenAI telah mengamankan hampir 7 gigawatt kapasitas terencana di enam lokasi dengan lebih dari $400 miliar investasi yang berkomitmen—menempatkan mereka pada jalur mencapai target penuh 10-gigawatt, $500 miliar lebih cepat dari jadwal.[^15] Namun, laporan menunjukkan proyek ini menghadapi penundaan di tengah tantangan eksekusi.[^16]

Pendekatan Anthropic menukar skala dengan ketahanan. Jika Stargate menghadapi penundaan konstruksi, tantangan pembiayaan, atau pergeseran teknologi, OpenAI menghadapi risiko konsentrasi. Komitmen terdistribusi Anthropic menyediakan kapasitas cadangan di berbagai penyedia.

Implikasi industri

Strategi multi-penyedia Anthropic menciptakan efek riak di seluruh ekosistem infrastruktur AI.

Pergeseran dinamika kompetitif

Lanskap laboratorium AI frontier kini menampilkan dua filosofi infrastruktur yang berbeda: - Terkonsentrasi: OpenAI (Stargate), Meta (pembangunan internal $600M) - Terdistribusi: Anthropic (multi-cloud + milik sendiri)

Laboratorium yang lebih kecil menghadapi tekanan untuk memilih: bersaing mendapatkan kapasitas hyperscaler melawan rival dengan pendanaan lebih baik, atau menerima kerugian infrastruktur. Persyaratan modal untuk infrastruktur kompetitif telah meningkat melampaui kemampuan penggalangan dana independen.

Posisi penyedia cloud

Hyperscaler bersaing mendapatkan anchor tenancy laboratorium AI sambil membangun kapasitas yang mungkin melebihi permintaan jika laboratorium membangun infrastruktur sendiri. Dinamika ini menciptakan ketidakpastian dalam perencanaan kapasitas:

  • AWS: Mempertahankan Anthropic melalui Project Rainier tetapi kehilangan eksklusivitas
  • Google Cloud: Mengamankan komitmen TPU multi-tahun, memvalidasi strategi silicon khusus
  • Microsoft Azure: Mendapatkan kehadiran Anthropic melalui komitmen $30M+, diversifikasi di luar OpenAI
  • Oracle: Dikecualikan dari Anthropic, menggandakan taruhan pada kemitraan Stargate

Validasi neocloud

Pemilihan Fluidstack dibanding hyperscaler yang sudah mapan memvalidasi model neocloud untuk infrastruktur AI frontier. Neocloud lain (CoreWeave, Lambda, Together) mendapatkan kredibilitas untuk kemitraan serupa. Sektor neocloud bertransisi dari sumber kapasitas alternatif menjadi mitra infrastruktur strategis.

Tantangan eksekusi

Mengubah $95 miliar dalam komitmen menjadi infrastruktur operasional melibatkan risiko eksekusi substansial di berbagai dimensi.

Pembentukan modal

Pendanaan yang diungkapkan Anthropic (~$8M hingga 2024) jauh dari cukup untuk komitmen $95M+. Kesenjangan modal membutuhkan: - Investasi ventura berkelanjutan (Google dilaporkan menyumbang tambahan $1M) - Pertumbuhan pendapatan dari Claude API dan produk enterprise - Kontribusi mitra strategis ($10M NVIDIA, $5M Microsoft) - Potensi pembiayaan utang saat fasilitas menjadi operasional

Komitmen tersebut merepresentasikan aspirasi multi-tahun yang membutuhkan akses modal berkelanjutan. Kondisi ekonomi yang mempengaruhi investasi teknologi dapat membatasi ketersediaan pendanaan.

Koordinasi multi-penyedia

Beroperasi di AWS, Google Cloud, Azure, dan Fluidstack secara bersamaan menciptakan kompleksitas koordinasi: - API, tooling, dan praktik operasional yang berbeda - Optimasi penempatan beban kerja di berbagai penyedia - Keamanan dan kepatuhan di berbagai lingkungan - Atribusi biaya dan optimasi di berbagai kontrak

Manfaat strategi multi-cloud (ketahanan, daya tawar negosiasi) datang dengan overhead operasional yang dihindari oleh pendekatan terkonsentrasi.

Persyaratan dukungan profesional

550 field engineer Introl mendukung organisasi yang mengimplementasikan infrastruktur AI skala besar di berbagai penyedia dan arsitektur.[^17] Perusahaan ini menempati peringkat #14 pada Inc. 5000 2025 dengan pertumbuhan tiga tahun 9.594%, mencerminkan permintaan akan keahlian deployment multi-cloud.[^18]

Deployment di 257 lokasi global membutuhkan praktik operasional yang konsisten terlepas dari penyedia yang mendasarinya.[^19] Introl mengelola deployment yang mencapai 100.000 GPU dengan lebih dari 40.000 mil infrastruktur jaringan fiber optik.[^20]

Kerangka keputusan untuk perencana infrastruktur

Strategi Anthropic menawarkan pelajaran bagi organisasi yang mengevaluasi pendekatan infrastruktur AI.

Pemilihan Strategi Infrastruktur:

Profil Anda Pendekatan yang Direkomendasikan Alasan
<$10J pengeluaran GPU tahunan Sewa hyperscaler Skala tidak cukup untuk infrastruktur khusus
$10-100J pengeluaran tahunan Multi-cloud dengan kapasitas berkomitmen Keseimbangan fleksibilitas dengan harga
>$100J pengeluaran tahunan Hybrid milik sendiri + sewa Optimasi ekonomi dalam skala
Pengembangan AI frontier Portofolio multi-penyedia Jaminan kapasitas, opsionalitas arsitektur

Sinyal yang perlu dipantau

Perhatikan indikator bahwa model terdistribusi Anthropic mengungguli pendekatan terkonsentrasi Stargate (atau sebaliknya): - Metrik efisiensi pelatihan relatif dari rilis Claude vs. GPT - Timeline deployment fasilitas memenuhi atau melewatkan target - Tren biaya-per-token dalam harga API - Perbandingan performa arsitektur (NVIDIA vs. Trainium vs. TPU)

Poin-poin utama

Untuk operator infrastruktur AI: - Strategi multi-penyedia mengurangi risiko ketergantungan tetapi meningkatkan kompleksitas operasional - Kemitraan neocloud menawarkan keunggulan kecepatan dan kustomisasi dibanding hyperscaler - Infrastruktur telah menjadi

[Konten dipotong untuk terjemahan]

Minta Penawaran_

Ceritakan tentang proyek Anda dan kami akan merespons dalam 72 jam.

> TRANSMISSION_COMPLETE

Permintaan Diterima_

Terima kasih atas pertanyaan Anda. Tim kami akan meninjau permintaan Anda dan merespons dalam 72 jam.

QUEUED FOR PROCESSING