Rencana Data Center Anthropic Senilai $50 Miliar: Laboratorium AI Menjadi Pembangun Infrastruktur
10 Des 2025 Ditulis Oleh Blake Crosley
Anthropic menandatangani kemitraan data center senilai $50 miliar dengan penyedia neocloud asal Inggris, Fluidstack, pada 12 November 2025, berkomitmen untuk membangun fasilitas di Texas dan New York yang akan beroperasi sepanjang 2026.[^1] Proyek ini menciptakan sekitar 800 lapangan kerja permanen dan 2.400 lapangan kerja konstruksi, menandai upaya besar pertama Anthropic untuk membangun infrastruktur khusus alih-alih mengandalkan penyedia cloud.[^2]
Pengumuman ini merupakan satu bagian dari strategi infrastruktur multi-cloud yang belum pernah terjadi sebelumnya. Anthropic secara bersamaan mempertahankan akses ke AWS Project Rainier (500.000 chip Trainium2 yang akan ditingkatkan menjadi 1 juta), Google Cloud TPU (hingga 1 juta chip), dan komitmen baru Microsoft Azure senilai $30 miliar dengan investasi $15 miliar dari NVIDIA dan Microsoft.[^3][^4][^5]
Portofolio Infrastruktur Anthropic:
| Kemitraan | Komitmen | Kapasitas | Status |
|---|---|---|---|
| Fluidstack | $50M | Data center Texas + New York | Online 2026 |
| Microsoft Azure | $30M + investasi $15M | Grace Blackwell, Vera Rubin | Aktif |
| AWS Project Rainier | Akses infrastruktur | 500K→1J chip Trainium2 | Aktif |
| Google Cloud | Multi-tahun | Hingga 1J chip TPU, 1+ GW | Aktif |
| Total | Komitmen $95M+ | Multi-gigawatt | 2025-2026 |
Pendekatan multi-cloud ini sangat kontras dengan proyek Stargate milik OpenAI—sebuah joint venture senilai $500 miliar dengan SoftBank, Oracle, dan MGX yang menargetkan 10 gigawatt pada 2029.[^6] Strategi terdistribusi Anthropic melakukan lindung nilai akses komputasi di berbagai arsitektur (NVIDIA, Trainium, TPU) dan penyedia.
Alasan strategis
Investasi infrastruktur Anthropic mengatasi kendala kritis yang dihadapi laboratorium AI frontier seiring model berkembang menuju kecerdasan umum buatan.
Lindung nilai multi-arsitektur
Melatih model frontier kini membutuhkan cluster puluhan ribu akselerator yang bekerja secara bersamaan.[^7] Alih-alih bertaruh pada satu arsitektur, Anthropic mengamankan akses di tiga platform yang bersaing:
Perbandingan Akselerator:
| Arsitektur | Penyedia | Keunggulan | Akses Anthropic |
|---|---|---|---|
| NVIDIA Grace Blackwell | Microsoft Azure | Performa pelatihan puncak, ekosistem | Komitmen $30M |
| AWS Trainium2 | Amazon | Efisiensi biaya, silicon khusus | 500K→1J chip |
| Google TPU v5 | Google Cloud | Efisiensi inferensi, rasio harga-performa | Hingga 1J chip |
Diversifikasi ini memastikan tidak ada satu pemasok pun yang dapat membatasi kapasitas pelatihan Anthropic. Jika alokasi NVIDIA mengetat, Anthropic mengalihkan beban kerja ke Trainium atau TPU. Jika AWS memprioritaskan pelanggan lain, Azure menyediakan kapasitas cadangan.
Persyaratan skala untuk Claude
Claude Opus 4.5, dirilis November 2025, merupakan model paling kapabel dari Anthropic.[^8] Melatih generasi berikutnya membutuhkan alokasi komputasi yang lebih besar lagi. Project Rainier menunjukkan skalanya: cluster ini membentang di tiga negara bagian (Pennsylvania, Indiana, Mississippi) dengan sebagian besar chip digunakan untuk inferensi dan proses pelatihan dijalankan pada jam malam ketika permintaan inferensi menurun.[^9]
Anthropic akan memiliki akses ke lebih dari satu gigawatt kapasitas yang akan online pada 2026 melalui Google Cloud saja.[^10] Dikombinasikan dengan fasilitas Fluidstack dan infrastruktur AWS, total kapasitas mendekati skala multi-gigawatt—komputasi yang sebelumnya hanya tersedia bagi hyperscaler terbesar.
Arbitrase ekonomi
Harga sewa GPU cloud telah turun dari $8/jam (H100, awal 2024) menjadi $2,85-3,50/jam (akhir 2025), tetapi pelatihan berkelanjutan tetap mengakumulasi jutaan dolar dalam biaya.[^11] Infrastruktur milik sendiri mengubah biaya operasional variabel menjadi investasi modal dengan karakteristik ekonomi yang berbeda.
Ekonomi Pelatihan dalam Skala Besar:
| Metrik | Sewa Cloud | Infrastruktur Milik Sendiri |
|---|---|---|
| 10.000 GPU-bulan | $20-25J | $15-18J (diamortisasi) |
| Fleksibilitas kapasitas | Instan | Lead time 12-24 bulan |
| Pilihan arsitektur | Tergantung penyedia | Ditentukan sendiri |
| Risiko aset terlantar | Tidak ada | Signifikan |
Kemitraan Fluidstack memberikan jalan tengah: fasilitas yang dibangun khusus untuk beban kerja Anthropic tanpa risiko kepemilikan penuh.
Struktur kemitraan
Kemitraan Fluidstack merepresentasikan taruhan terkalkulasi pada ketangkasan neocloud dibanding skala hyperscaler.
Mengapa Fluidstack
Fluidstack, didirikan pada 2017, menunjukkan kemampuannya pada awal 2025 ketika dinobatkan sebagai mitra utama untuk proyek AI 1-gigawatt yang didukung pemerintah Prancis dengan nilai belanja lebih dari $11 miliar.[^12] CEO Anthropic Dario Amodei memilih Fluidstack karena "kemampuannya bergerak dengan ketangkasan luar biasa, memungkinkan pengiriman cepat gigawatt daya."[^13]
Model neocloud Fluidstack berbeda dari pendekatan hyperscaler: - Kecepatan: Hitungan bulan, bukan tahun, untuk pengiriman fasilitas - Kustomisasi: Infrastruktur dioptimalkan untuk pola beban kerja spesifik Anthropic - Ekonomi: Tanpa margin hyperscaler, pass-through biaya langsung - Fleksibilitas: Ketentuan kontrak disesuaikan dengan kebutuhan laboratorium AI
Strategi geografis
Lokasi Texas dan New York melayani tujuan strategis yang berbeda:
Fasilitas Texas: - Biaya listrik lebih rendah ($0,04-0,06/kWh vs. $0,12+ di tempat lain) - Lingkungan regulasi yang mendukung pengembangan data center - Kedekatan dengan infrastruktur Stargate yang ada di Abilene - Fokus utama: Proses pelatihan skala besar
Fasilitas New York: - Konektivitas premium ke pelanggan sektor keuangan - Akses latensi rendah ke pusat populasi Timur Laut - Kedekatan dengan pelanggan enterprise untuk layanan Claude API - Fokus utama: Penyajian inferensi, deployment enterprise
Investasi kepemimpinan
Anthropic merekrut Rahul Patil sebagai CTO pada Oktober 2025, khusus untuk mengawasi operasi komputasi, infrastruktur, inferensi, dan engineering.[^14] Latar belakang Patil sebagai CTO Stripe menandakan komitmen Anthropic pada infrastruktur sebagai kompetensi inti, bukan fungsi yang di-outsource.
Perbandingan Stargate: Dua model untuk infrastruktur AI
Kontras antara strategi terdistribusi Anthropic dan pendekatan terkonsentrasi Stargate OpenAI mengungkapkan perbedaan filosofis yang fundamental.
Perbandingan Strategi Infrastruktur:
| Dimensi | Anthropic | OpenAI Stargate |
|---|---|---|
| Total komitmen | $95M+ (terdistribusi) | $500M (terkonsentrasi) |
| Timeline | 2025-2026 | Hingga 2029 |
| Arsitektur | Multi-vendor (NVIDIA, Trainium, TPU) | NVIDIA-utama |
| Kepemilikan | Model kemitraan | Joint venture (masing-masing 40% SoftBank, OpenAI) |
| Sebaran geografis | Beberapa fasilitas, 3+ region cloud | 6+ lokasi, target 10 GW |
| Profil risiko | Lebih rendah (terdiversifikasi) | Lebih tinggi (terkonsentrasi) |
Stargate OpenAI telah mengamankan hampir 7 gigawatt kapasitas terencana di enam lokasi dengan lebih dari $400 miliar investasi yang berkomitmen—menempatkan mereka pada jalur mencapai target penuh 10-gigawatt, $500 miliar lebih cepat dari jadwal.[^15] Namun, laporan menunjukkan proyek ini menghadapi penundaan di tengah tantangan eksekusi.[^16]
Pendekatan Anthropic menukar skala dengan ketahanan. Jika Stargate menghadapi penundaan konstruksi, tantangan pembiayaan, atau pergeseran teknologi, OpenAI menghadapi risiko konsentrasi. Komitmen terdistribusi Anthropic menyediakan kapasitas cadangan di berbagai penyedia.
Implikasi industri
Strategi multi-penyedia Anthropic menciptakan efek riak di seluruh ekosistem infrastruktur AI.
Pergeseran dinamika kompetitif
Lanskap laboratorium AI frontier kini menampilkan dua filosofi infrastruktur yang berbeda: - Terkonsentrasi: OpenAI (Stargate), Meta (pembangunan internal $600M) - Terdistribusi: Anthropic (multi-cloud + milik sendiri)
Laboratorium yang lebih kecil menghadapi tekanan untuk memilih: bersaing mendapatkan kapasitas hyperscaler melawan rival dengan pendanaan lebih baik, atau menerima kerugian infrastruktur. Persyaratan modal untuk infrastruktur kompetitif telah meningkat melampaui kemampuan penggalangan dana independen.
Posisi penyedia cloud
Hyperscaler bersaing mendapatkan anchor tenancy laboratorium AI sambil membangun kapasitas yang mungkin melebihi permintaan jika laboratorium membangun infrastruktur sendiri. Dinamika ini menciptakan ketidakpastian dalam perencanaan kapasitas:
- AWS: Mempertahankan Anthropic melalui Project Rainier tetapi kehilangan eksklusivitas
- Google Cloud: Mengamankan komitmen TPU multi-tahun, memvalidasi strategi silicon khusus
- Microsoft Azure: Mendapatkan kehadiran Anthropic melalui komitmen $30M+, diversifikasi di luar OpenAI
- Oracle: Dikecualikan dari Anthropic, menggandakan taruhan pada kemitraan Stargate
Validasi neocloud
Pemilihan Fluidstack dibanding hyperscaler yang sudah mapan memvalidasi model neocloud untuk infrastruktur AI frontier. Neocloud lain (CoreWeave, Lambda, Together) mendapatkan kredibilitas untuk kemitraan serupa. Sektor neocloud bertransisi dari sumber kapasitas alternatif menjadi mitra infrastruktur strategis.
Tantangan eksekusi
Mengubah $95 miliar dalam komitmen menjadi infrastruktur operasional melibatkan risiko eksekusi substansial di berbagai dimensi.
Pembentukan modal
Pendanaan yang diungkapkan Anthropic (~$8M hingga 2024) jauh dari cukup untuk komitmen $95M+. Kesenjangan modal membutuhkan: - Investasi ventura berkelanjutan (Google dilaporkan menyumbang tambahan $1M) - Pertumbuhan pendapatan dari Claude API dan produk enterprise - Kontribusi mitra strategis ($10M NVIDIA, $5M Microsoft) - Potensi pembiayaan utang saat fasilitas menjadi operasional
Komitmen tersebut merepresentasikan aspirasi multi-tahun yang membutuhkan akses modal berkelanjutan. Kondisi ekonomi yang mempengaruhi investasi teknologi dapat membatasi ketersediaan pendanaan.
Koordinasi multi-penyedia
Beroperasi di AWS, Google Cloud, Azure, dan Fluidstack secara bersamaan menciptakan kompleksitas koordinasi: - API, tooling, dan praktik operasional yang berbeda - Optimasi penempatan beban kerja di berbagai penyedia - Keamanan dan kepatuhan di berbagai lingkungan - Atribusi biaya dan optimasi di berbagai kontrak
Manfaat strategi multi-cloud (ketahanan, daya tawar negosiasi) datang dengan overhead operasional yang dihindari oleh pendekatan terkonsentrasi.
Persyaratan dukungan profesional
550 field engineer Introl mendukung organisasi yang mengimplementasikan infrastruktur AI skala besar di berbagai penyedia dan arsitektur.[^17] Perusahaan ini menempati peringkat #14 pada Inc. 5000 2025 dengan pertumbuhan tiga tahun 9.594%, mencerminkan permintaan akan keahlian deployment multi-cloud.[^18]
Deployment di 257 lokasi global membutuhkan praktik operasional yang konsisten terlepas dari penyedia yang mendasarinya.[^19] Introl mengelola deployment yang mencapai 100.000 GPU dengan lebih dari 40.000 mil infrastruktur jaringan fiber optik.[^20]
Kerangka keputusan untuk perencana infrastruktur
Strategi Anthropic menawarkan pelajaran bagi organisasi yang mengevaluasi pendekatan infrastruktur AI.
Pemilihan Strategi Infrastruktur:
| Profil Anda | Pendekatan yang Direkomendasikan | Alasan |
|---|---|---|
| <$10J pengeluaran GPU tahunan | Sewa hyperscaler | Skala tidak cukup untuk infrastruktur khusus |
| $10-100J pengeluaran tahunan | Multi-cloud dengan kapasitas berkomitmen | Keseimbangan fleksibilitas dengan harga |
| >$100J pengeluaran tahunan | Hybrid milik sendiri + sewa | Optimasi ekonomi dalam skala |
| Pengembangan AI frontier | Portofolio multi-penyedia | Jaminan kapasitas, opsionalitas arsitektur |
Sinyal yang perlu dipantau
Perhatikan indikator bahwa model terdistribusi Anthropic mengungguli pendekatan terkonsentrasi Stargate (atau sebaliknya): - Metrik efisiensi pelatihan relatif dari rilis Claude vs. GPT - Timeline deployment fasilitas memenuhi atau melewatkan target - Tren biaya-per-token dalam harga API - Perbandingan performa arsitektur (NVIDIA vs. Trainium vs. TPU)
Poin-poin utama
Untuk operator infrastruktur AI: - Strategi multi-penyedia mengurangi risiko ketergantungan tetapi meningkatkan kompleksitas operasional - Kemitraan neocloud menawarkan keunggulan kecepatan dan kustomisasi dibanding hyperscaler - Infrastruktur telah menjadi
[Konten dipotong untuk terjemahan]