Jaringan 800G untuk AI: Merencanakan Fabric GPU Generasi Berikutnya

800G mendominasi pengiriman switch klaster AI pada tahun 2025. Pendapatan jaringan NVIDIA berlipat ganda menjadi $7,3 miliar. Merencanakan migrasi dari 400G ke 800G dan seterusnya.

Jaringan 800G untuk AI: Merencanakan Fabric GPU Generasi Berikutnya

Jaringan 800G untuk AI: merencanakan fabric GPU generasi berikutnya

Diperbarui 11 Desember 2025

Pembaruan Desember 2025: Platform InfiniBand Quantum-X800 dan Ethernet Spectrum-X800 dari NVIDIA kini dikirim dalam volume besar. Microsoft Azure menerapkan fabric fat-tree non-blocking penuh 800G untuk klaster GB200/GB300. Ultra Ethernet Consortium mempercepat peningkatan khusus AI saat uji coba 1.6T dimulai. Kepadatan daya tetap menjadi kendala penerapan—modul 800G yang mengonsumsi 14-20W per port membebani desain pendinginan rak.

Mayoritas pengiriman port switch di klaster AI selama tahun 2025 beroperasi pada kecepatan 800 gigabit per detik.¹ Pada tahun 2027, mayoritas akan beralih ke 1,6 terabit. Pada tahun 2030, sebagian besar port akan berjalan pada 3,2 terabit.² Ini mengimplikasikan bahwa lapisan listrik jaringan pusat data akan memerlukan penggantian pada setiap generasi bandwidth, siklus peningkatan yang jauh lebih agresif daripada yang terlihat secara historis dalam jaringan enterprise. Organisasi yang merencanakan infrastruktur AI harus memperhitungkan transisi jaringan yang akan terjadi lebih cepat dari generasi teknologi sebelumnya.

Pendapatan jaringan NVIDIA hampir berlipat ganda dari tahun ke tahun menjadi $7,3 miliar, didorong oleh adopsi kuat Ethernet Spectrum-X, InfiniBand XDR, dan sistem scale-up NVLink.³ Spectrum-X melampaui tingkat run rate tahunan $10 miliar.⁴ Investasi ini menandakan bahwa jaringan untuk AI mewakili pasar yang berbeda dari jaringan pusat data tradisional, dengan persyaratan dan ekonomi yang membenarkan pengembangan produk khusus dan perencanaan infrastruktur.

800G menjadi standar 2025

Riset industri dan roadmap vendor memposisikan optik 800G sebagai teknologi dominan untuk penerapan klaster AI baru dan pusat data besar pada tahun 2025, khususnya dalam form factor OSFP dan QSFP-DD.⁵ Vendor dan analis mengharapkan transceiver 800G menjadi tulang punggung di fabric AI besar, dengan uji coba awal untuk 1.6T sudah dalam pengembangan.⁶

Peningkatan pesat platform Blackwell Ultra NVIDIA memicu permintaan kuat untuk switch InfiniBand 800 Gbps, mendorong lonjakan penjualan switch InfiniBand pada Q2 2025.⁷ Sementara penjualan switch InfiniBand di jaringan back-end AI melonjak, Ethernet mempertahankan keunggulan secara keseluruhan. Switch 800 Gbps mencakup sebagian besar pengiriman dan pendapatan switch Ethernet maupun InfiniBand di jaringan back-end AI.⁸

Penerapan NVIDIA GB200 dan GB300 terbaru Microsoft berkomunikasi melalui NVLink dan NVSwitch dengan kecepatan terabyte per detik di tingkat rak.⁹ Untuk menghubungkan antar beberapa rak ke dalam sebuah pod, Azure menggunakan fabric InfiniBand dan Ethernet yang memberikan 800 Gbps dalam arsitektur fat-tree non-blocking penuh.¹⁰ Pendekatan hybrid ini mencerminkan peran komplementer dari berbagai teknologi jaringan dalam infrastruktur AI skala besar.

Konektivitas optik berbasis AI termasuk modul 400G dan 800G akan tumbuh dengan tingkat tahunan gabungan lebih dari 22% menuju tahun 2030, sebagian besar karena klaster pelatihan dan inferensi AI skala besar.¹¹ Trajektori pertumbuhan ini membenarkan investasi infrastruktur yang mengantisipasi ekspansi multi-tahun persyaratan jaringan AI.

Platform jaringan 800G NVIDIA

NVIDIA Quantum-X800 InfiniBand dan Spectrum-X800 Ethernet mewakili platform jaringan pertama di dunia yang mampu memberikan throughput end-to-end 800Gb/s.¹² Platform Quantum-X800, yang dibangun khusus untuk model AI skala triliunan parameter, mencakup switch InfiniBand Quantum-X800, SuperNIC ConnectX-8, SuperNIC ConnectX-9, serta kabel dan transceiver LinkX.¹³

Switch InfiniBand Quantum-X800 menyediakan 144 port konektivitas 800 Gb/s per port.¹⁴ Kepadatan port memungkinkan pembangunan fabric skala besar dengan tier switching yang lebih sedikit, mengurangi latensi dan kompleksitas. Bagi organisasi yang melatih model AI terbesar, InfiniBand terus memberikan latensi terendah dan konsistensi performa terbaik dalam skala besar.

Switch Quantum-X dan Spectrum-X Photonics dari NVIDIA mengintegrasikan silicon photonics langsung ke dalam paket switch, memberikan 128 hingga 512 port 800 Gb/s dengan bandwidth total berkisar dari 100 Tb/s hingga 400 Tb/s.¹⁵ Integrasi ini menawarkan efisiensi daya 3,5x lebih baik dan ketahanan 10x lebih baik dibandingkan dengan optik tradisional.¹⁶

Cisco Nexus Hyperfabric AI dengan switch Cisco G200 Silicon One yang dikelola cloud memberikan Ethernet 800G kepadatan tinggi, kini dapat dipesan sebagai opsi penerapan dalam AI POD.¹⁷ Kemitraan antara Cisco dan NVIDIA dalam jaringan AI menunjukkan bagaimana vendor jaringan enterprise tradisional beradaptasi dengan persyaratan infrastruktur AI.

Pertimbangan InfiniBand versus Ethernet

Ethernet akan mendominasi sebagian besar penerapan AI enterprise karena keunggulan biaya dan ekosistem, sementara InfiniBand akan tetap menjadi pilihan untuk klaster AI dan HPC skala ekstrem.¹⁸ Perbedaan ini penting untuk perencanaan infrastruktur: organisasi harus memilih teknologi berdasarkan karakteristik beban kerja daripada default ke opsi yang familiar.

InfiniBand memberikan latensi lebih rendah sekitar 1-2 mikrodetik dan konsistensi performa lebih baik dalam skala besar.¹⁹ Ethernet dengan RoCEv2 menawarkan latensi sekitar 5-10 mikrodetik dan dapat disetel untuk beban kerja AI.²⁰ Perbedaan latensi ini penting untuk pekerjaan pelatihan di mana operasi kolektif menyinkronkan di ribuan GPU. Beban kerja inferensi dengan persyaratan sinkronisasi lebih rendah mungkin tidak mendapat manfaat dari keunggulan latensi InfiniBand.

Analis memproyeksikan bahwa Ethernet akan menjadi teknologi yang lebih menonjol untuk jaringan AI, melampaui InfiniBand saat 800G meningkat dan 1.6T terbentuk.²¹ Keanggotaan pendiri NVIDIA di Ultra Ethernet Consortium dan rilis switch Ethernet Spectrum-X 800G yang dioptimalkan untuk AI menandakan kepercayaan pada masa depan Ethernet untuk AI.²² Ultra Ethernet Consortium mengembangkan peningkatan khusus untuk beban kerja AI.

Menerapkan fabric Ethernet 800G lossless berperforma tinggi memaksimalkan nilai investasi AI.²³ Jaringan berfungsi sebagai sistem saraf pusat, krusial untuk memaksimalkan efisiensi dan return on investment. Fine-tuning fabric jaringan mempercepat waktu penyelesaian pekerjaan dan memastikan utilisasi GPU yang tinggi.²⁴

Tantangan migrasi dan perencanaan

Optik 800G memperkenalkan tantangan baru yang harus diatasi organisasi selama perencanaan migrasi. Kepadatan daya dan termal meningkat secara substansial, dengan modul 800G mengonsumsi 14-20 watt atau lebih, membebani desain pendinginan switch dan anggaran daya rak.²⁵ Organisasi harus memverifikasi bahwa infrastruktur yang ada dapat mendukung peningkatan persyaratan daya dan pendinginan.

Manajemen fiber menjadi lebih kompleks. Migrasi ke 800G sering memerlukan jumlah fiber yang lebih tinggi, kabel MTP, dan persyaratan polaritas serta kebersihan yang lebih ketat.²⁶ Infrastruktur lapisan fisik yang bekerja untuk 100G atau 400G mungkin tidak mendukung 800G tanpa peningkatan. Investasi cable plant harus mengantisipasi persyaratan bandwidth masa depan untuk menghindari penggantian infrastruktur berulang.

Interoperabilitas dan validasi di seluruh vendor switch dan NIC memerlukan perencanaan yang cermat.²⁷ Lingkungan multi-vendor mungkin menghadapi masalah kompatibilitas yang tidak dialami penerapan homogen. Organisasi harus memvalidasi interoperabilitas di lingkungan lab sebelum penerapan produksi.

Siklus peningkatan agresif dari 800G ke 1.6T ke 3.2T dalam waktu kurang dari lima tahun berbeda dari transisi jaringan historis. Perencanaan harus memperhitungkan penggantian infrastruktur yang lebih sering daripada yang dialami jaringan pusat data tradisional. Desain modular yang memungkinkan peningkatan tingkat komponen dapat mengurangi total biaya penggantian.

Rekomendasi strategis

Organisasi yang merencanakan infrastruktur AI harus mengevaluasi persyaratan jaringan dengan ketelitian yang sama yang diterapkan pada pemilihan GPU. Jaringan menentukan seberapa efektif sumber daya GPU yang mahal digunakan. Kurang berinvestasi di jaringan menciptakan bottleneck yang membuang kapasitas GPU.

Untuk penerapan AI baru pada tahun 2025, 800G harus menjadi spesifikasi default untuk konektivitas tingkat spine. Konektivitas tingkat leaf dapat menggunakan 400G tergantung pada konfigurasi GPU dan toleransi oversubscription. Investasi dalam infrastruktur 800G memberikan ruang untuk pertumbuhan beban kerja dan mempersiapkan transisi masa depan.

InfiniBand tetap sesuai untuk klaster pelatihan AI terbesar di mana minimalisasi latensi secara langsung meningkatkan efisiensi pelatihan. Penerapan AI enterprise, layanan AI berbasis cloud, dan beban kerja inferensi umumnya mendapat manfaat dari keunggulan biaya Ethernet dan integrasi ekosistem tanpa mengorbankan performa yang berarti.

Kendala daya dan pendinginan mungkin membatasi adopsi 800G lebih dari persyaratan bandwidth. Organisasi harus mengaudit kapasitas infrastruktur sebelum berkomitmen pada penerapan 800G. Anggaran daya untuk jaringan mungkin bersaing dengan persyaratan daya GPU di fasilitas yang terbatas.

Kerangka keputusan cepat

Pemilihan Teknologi:

Jika Beban Kerja Anda... Pilih Alasan
Pelatihan LLM (>1000 GPU) InfiniBand 800G Latensi 1-2µs, konsistensi terbaik
AI enterprise/inferensi Ethernet 800G Hemat biaya, integrasi ekosistem
Hybrid pelatihan + inferensi Dual fabric InfiniBand untuk pelatihan, Ethernet untuk inferensi
AI yang di-deploy di cloud Tergantung provider GCP hanya Ethernet; AWS/Azure menawarkan keduanya

Perencanaan Bandwidth:

Skala Klaster Spine Leaf Oversubscription
<256 GPU 400G 100G 4:1 dapat diterima
256-1024 GPU 800G 400G 2:1 direkomendasikan
1024-4096 GPU 800G 800G 1:1 (non-blocking)
>4096 GPU Multi-tier 800G 800G Desain fat-tree

Poin-poin penting

Untuk arsitek jaringan: - 800G adalah standar 2025; rencanakan untuk 1.6T pada 2027, 3.2T pada 2030 - NVIDIA Quantum-X800 memberikan 144 port × 800Gb/s per switch - InfiniBand: ~1-2µs latensi; Ethernet dengan RoCEv2: ~5-10µs - Konsumsi daya: modul 800G menarik 14-20W, berdampak pada anggaran rak

Untuk perencana infrastruktur: - Lapisan listrik jaringan memerlukan penggantian pada setiap generasi bandwidth - Optik 800G memerlukan jumlah fiber lebih tinggi, kabel MTP, kebersihan lebih ketat - Validasi interoperabilitas kritis di lingkungan multi-vendor - Desain modular mengurangi total biaya penggantian selama transisi

Untuk perencanaan strategis: - Ethernet diproyeksikan melampaui InfiniBand untuk jaringan AI saat 800G meningkat - NVIDIA Spectrum-X mencapai run rate tahunan $10 miliar—jaringan AI adalah pasar yang berbeda - Ultra Ethernet Consortium mengembangkan peningkatan khusus AI - Investasi jaringan menentukan utilisasi GPU—kurang berinvestasi membuang komputasi

Jaringan mewakili komponen biaya infrastruktur AI yang signifikan namun sering diremehkan. Investasi yang diperlukan untuk mendukung klaster GPU dengan bandwidth yang sesuai membenarkan perencanaan yang cermat dan evaluasi vendor. Organisasi yang memperlakukan jaringan sebagai hal sekunder akan menemukan bahwa keterbatasan jaringan membatasi kemampuan AI yang seharusnya dapat diaktifkan oleh investasi GPU mereka.


Referensi

  1. Dell'Oro Group. "Beyond the GPU Arms Race — The Potential Role of OXC in Building Next Gen AI Infrastructure." 2025. https://www.delloro.com/beyond-the-gpu-arms-race-the-potential-role-of-oxc-in-building-next-gen-ai-infrastructure/

  2. Dell'Oro Group. "Beyond the GPU Arms Race."

  3. NVIDIA Newsroom. "NVIDIA Announces New Switches Optimized for Trillion-Parameter GPU Computing and AI Infrastructure." 2025. https://nvidianews.nvidia.com/news/networking-switches-gpu-computing-ai

  4. NVIDIA Newsroom. "NVIDIA Announces New Switches."

  5. QSFP DD 800G. "2025 800G Optical Module Trends for AI Data Centers." 2025. https://qsfpdd800g.com/blogs/artical/2025-800g-optical-module-trends-ai-data-centers

  6. QSFP DD 800G. "2025 800G Optical Module Trends."

  7. Lightwave Online. "Ethernet maintains a lead over InfiniBand in the AI race." 2025. https://www.lightwaveonline.com/home/article/55315256/ethernet-maintains-a-lead-over-infiniband-in-the-ai-race

  8. Lightwave Online. "Ethernet maintains a lead over InfiniBand."

  9. Microsoft Blog. "Inside the world's most powerful AI datacenter." September 18, 2025. https://blogs.microsoft.com/blog/2025/09/18/inside-the-worlds-most-powerf

[Konten terpotong untuk terjemahan]

Minta Penawaran_

Ceritakan tentang proyek Anda dan kami akan merespons dalam 72 jam.

> TRANSMISSION_COMPLETE

Permintaan Diterima_

Terima kasih atas pertanyaan Anda. Tim kami akan meninjau permintaan Anda dan merespons dalam 72 jam.

QUEUED FOR PROCESSING