DPU dan SmartNIC: pilar ketiga komputasi pusat data
Diperbarui 11 Desember 2025
Pembaruan Desember 2025: Pasar DPU SmartNIC mencapai $1,11 miliar pada 2024, diproyeksikan $4,44 miliar pada 2034 (CAGR 14,89%). 50% penyedia layanan cloud kini mengandalkan DPU; 35% tugas pelatihan model AI di-offload ke DPU. BlueField-3 memberikan setara 300 core CPU dalam offload layanan. BlueField-4 diumumkan dengan 800Gbps dan 6x komputasi. AMD Pensando Elba hadir dengan dual 200GbE dan kemampuan program P4.
Pasar DPU SmartNIC mencapai $1,11 miliar pada 2024 dan akan tumbuh menjadi $4,44 miliar pada 2034 dengan tingkat pertumbuhan tahunan gabungan 14,89%.¹ Hampir 50% penyedia layanan cloud kini mengandalkan DPU untuk optimalisasi beban kerja.² Sekitar 35% tugas pelatihan model AI di-offload ke DPU untuk efisiensi dan kinerja yang lebih baik.³ Para pemimpin industri semakin memandang DPU sebagai pilar ketiga komputasi bersama CPU dan GPU—prosesor khusus yang memindahkan data secara aman di seluruh infrastruktur.⁴
Kluster AI mengubah pola lalu lintas dalam pusat data. Sebagian besar lalu lintas kini mengalir timur-barat antar GPU selama pelatihan model dan checkpointing, bukan utara-selatan antara aplikasi dan internet.⁵ DPU berkembang dari akselerator opsional menjadi infrastruktur penting yang mencegah bottleneck CPU menghambat utilisasi GPU.⁶ Organisasi yang membangun infrastruktur AI harus mengevaluasi pemilihan DPU seserius pilihan GPU dan CPU.
NVIDIA BlueField-3: standar infrastruktur
NVIDIA BlueField-3 merupakan infrastructure-on-a-chip pusat data generasi ketiga, memungkinkan organisasi membangun infrastruktur TI yang didefinisikan perangkat lunak dan diakselerasi perangkat keras dari cloud ke pusat data inti hingga edge.⁷ DPU dengan 22 miliar transistor ini meng-offload, mengakselerasi, dan mengisolasi fungsi jaringan, penyimpanan, keamanan, dan manajemen yang didefinisikan perangkat lunak.⁸
Konektivitas jaringan mencapai 400 gigabit per detik via Ethernet atau NDR InfiniBand.⁹ Konfigurasi port mencakup 1, 2, atau 4 port dengan opsi berbagai kombinasi bandwidth.¹⁰ Memori on-board mencakup 16 gigabyte DDR5 dengan opsi form factor termasuk half-height half-length dan full-height half-length kartu PCIe.¹¹
BlueField-3 memberikan 10 kali daya komputasi terakselerasi dibanding generasi sebelumnya.¹² Kompleks prosesor menampilkan 16 core ARM A78 dengan akselerasi kriptografi 4 kali lipat dari BlueField-2.¹³ Bandwidth jaringan meningkat dua kali lipat sementara daya komputasi meningkat empat kali dan bandwidth memori meningkat hampir 5 kali.¹⁴
Kesetaraan kinerja bercerita banyak. Satu DPU BlueField-3 memberikan layanan pusat data setara hingga 300 core CPU, membebaskan siklus CPU yang berharga untuk aplikasi bisnis kritis.¹⁵ Rasio offload ini membenarkan investasi DPU bagi organisasi di mana kapasitas CPU membatasi deployment beban kerja.
BlueField-3 adalah DPU pertama yang mendukung PCIe generasi kelima dan menawarkan akselerasi pusat data yang tersinkronisasi waktu.¹⁶ Konsumsi daya maksimum tidak melebihi 150 watt.¹⁷
Kasus penggunaan mencakup seluruh stack infrastruktur: infrastruktur hyperconverged dengan enkripsi, integritas data, deduplikasi, dekompresi, dan erasure coding untuk penyimpanan; firewall terdistribusi, IDS/IPS, root of trust, mikrosegmentasi, dan pencegahan DDoS untuk keamanan; superkomputasi cloud-native dengan multi-tenancy dan akselerasi komunikasi untuk HPC/AI; dan Cloud RAN, gateway edge tervirtualisasi, dan akselerasi VNF untuk aplikasi telko dan edge.¹⁸
NVIDIA mengumumkan BlueField-4 sebagai penerus—platform infrastruktur 800 gigabit per detik untuk pabrik AI skala giga yang memberikan 6 kali komputasi BlueField-3 dengan akselerasi untuk jaringan, penyimpanan data, dan keamanan siber.¹⁹
AMD Pensando: pilihan hyperscaler
AMD mengakuisisi Pensando Systems pada 2022, membawa teknologi DPU yang dapat diprogram P4 ke dalam portofolio pusat data AMD.²⁰ DPU Pensando telah diadopsi secara luas, divalidasi, dan diuji sebagai solusi jaringan front-end di beberapa pusat data hyperscale terbesar.²¹
DPU AMD Pensando Elba generasi kedua sepenuhnya dapat diprogram P4 dan dioptimalkan untuk throughput tinggi, memungkinkan offload canggih layanan jaringan, penyimpanan, dan keamanan pada line rate dual 200 gigabit per detik.²²
SoC Elba berisi 16 core ARM Cortex-A72, pengontrol memori dual DDR4/DDR5, 32 lane konektivitas PCIe Gen3 atau Gen4, hingga dual 200GbE atau quad 100GbE jaringan, serta kemampuan offload penyimpanan dan kripto.²³
Arsitekturnya berpusat pada Match-Processing Units (MPU) di mana software-in-silicon dieksekusi dan menyediakan layanan fast-path yang terakselerasi.²⁴ Memori sistem terhubung ke core ARM tujuan umum dan MPU domain-spesifik.²⁵ Pipeline P4 menangani jaringan, penyimpanan, telemetri, SDN, keamanan, manajemen kongesti, dan RDMA secara bersamaan tanpa mengorbankan kinerja.²⁶
Pipeline yang dapat diprogram menyediakan enkapsulasi dan dekapsulasi tunnel VxLAN, routing IPv4/v6, aturan keamanan stateless dan stateful, translasi alamat jaringan, load balancing server, layanan enkripsi, pemetaan VLAN ke VPC, dan peering VPC pada line rate.²⁷
AMD menawarkan pipeline referensi SAI (Switch Abstraction Interface) yang menjalankan SONiC OS pada DPU Pensando.²⁸ Integrasi ini memungkinkan layanan yang disediakan SONiC termasuk stack routing, antarmuka manajemen, dan monitoring sambil memanfaatkan kemampuan penuh DPU via SSDK.²⁹
AMD memperkenalkan Pensando Salina sebagai penerus 400G yang dirancang untuk bersaing langsung dengan NVIDIA BlueField-3 dalam aplikasi jaringan front-end.³⁰ Pensando Pollara 400 AI NIC tersedia secara komersial pada paruh pertama 2025, mengoptimalkan jaringan AI dan HPC melalui kemampuan canggih termasuk RDMA dan kontrol kongesti.³¹
DPU Giglio yang lebih baru dibangun di atas Elba dengan kompatibilitas source-code, memungkinkan pelanggan yang ada mengadopsi platform baru dengan perubahan perangkat lunak minimal.³²
Untuk perusahaan yang menjalankan VMware, pilihan praktis menyempit ke NVIDIA BlueField-2 atau AMD Pensando DSC2.³³ Dukungan ekosistem VMware membatasi opsi bagi organisasi yang berkomitmen pada platform virtualisasi tersebut.
Intel IPU E2100: pendekatan cloud-native
Infrastructure Processing Unit (IPU) Adapter E2100 dari Intel memberikan akselerasi infrastruktur, enablement penyimpanan virtual, dan fitur keamanan yang ditingkatkan.³⁴ SoC E2100 adalah platform akselerasi infrastruktur yang dioptimalkan untuk daya, kinerja, dan skala.³⁵
Perangkat keras ini menampilkan pipeline pemrosesan paket yang kaya dengan bandwidth 200GbE dan mencakup akselerator NVMe, kompresi, dan kripto.³⁶ Kompleks komputasi ARM Neoverse N1 memungkinkan perangkat lunak yang disediakan pelanggan untuk mengeksekusi fitur mulai dari pipeline pemrosesan paket kompleks hingga transport penyimpanan, manajemen perangkat, dan telemetri.³⁷
E2100 berisi 16 core ARM Neoverse N1 dengan cache 32 megabyte dan 3 kanal memori LPDDR4x 16GB dengan total 48 gigabyte.³⁸
Varian model menangani persyaratan deployment yang berbeda. E2100-CCQDA2 diluncurkan pada Q1 2024 dengan TDP 150W dalam konfigurasi dual-port yang mendukung data rate 200/100/50/25/10GbE melalui PCIe 4.0 dalam form factor half-length, full-height, single-slot.³⁹ E2100-CCQDA2HL diluncurkan pada Q4 2024 dengan TDP yang dikurangi menjadi 75W dalam konfigurasi dual-port yang sama.⁴⁰
Konektivitas menggunakan port QSFP56 yang mendukung kabel DAC, optik, dan AOC.⁴¹ Dukungan virtualisasi mencakup Virtual Machine Device Queues (VMDq), PCI-SIG SR-IOV, dan RoCEv2/RDMA.⁴²
Silsilah Intel IPU berasal dari proyek Mt Evans yang dirancang untuk berfungsi seperti AWS Nitro khusus untuk Google Cloud, meng-offload NVMe over Fabric dan keamanan jaringan.⁴³ E2100 merupakan iterasi pertama yang tersedia untuk pelanggan non-Google.⁴⁴
Kasus penggunaan mencakup pemisahan dan isolasi beban kerja infrastruktur, offload jaringan tervirtualisasi ke IPU di mana akselerator memproses tugas dengan lebih efisien, dan mengganti penyimpanan disk lokal dengan penyimpanan tervirtualisasi yang terpisah.⁴⁵
Dinamika pasar dan pola adopsi
Pasar DPU terbagi menjadi segmen kasus penggunaan yang berbeda. Offload pusat data memimpin, didorong oleh ekspansi pusat data hyperscale dan tuntutan yang meningkat dari beban kerja komputasi kompleks dan padat data.⁴⁶ Amerika Utara memegang pangsa pendapatan terbesar, didorong oleh ancaman keamanan siber yang meningkat, adopsi framework keamanan zero-trust yang berkembang, dan investasi signifikan dalam infrastruktur AI dan machine learning.⁴⁷
Pola adopsi menunjukkan keselarasan beban kerja yang jelas. Sekitar 30% deployment fokus pada beban kerja AI sementara 20% menargetkan arsitektur keamanan zero-trust.⁴⁸ DPU dengan akselerasi keamanan berbasis perangkat keras mengalami peningkatan adopsi 30%, mencerminkan prioritas industri pada prinsip zero-trust.⁴⁹
Pola lalu lintas AI mendorong kebutuhan DPU. Lalu lintas timur-barat antar GPU selama pelatihan mendominasi komunikasi kluster AI modern.⁵⁰ CPU host tidak dapat memproses lalu lintas ini pada line rate tanpa menjadi bottleneck. DPU menangani pemrosesan jaringan yang sebaliknya akan mengonsumsi siklus CPU yang dibutuhkan untuk fungsi orkestrasi dan control plane.
Lanskap kompetitif menampilkan tiga vendor utama dengan positioning yang berbeda. NVIDIA memimpin dengan integrasi BlueField ke dalam ekosistem infrastruktur AI yang lebih luas dan dukungan InfiniBand terkuat.⁵¹ AMD Pensando mendominasi deployment hyperscaler dengan skala produksi yang terbukti dan kemampuan program P4.⁵² Intel menargetkan arsitektur cloud-native dengan desain IPU yang terinspirasi Nitro.⁵³
OCTEON 10 dari Marvell merupakan penantang generasi berikutnya—DPU 5nm pertama di industri dengan core ARM Neoverse N2 yang memberikan kinerja komputasi 3 kali lebih tinggi dan konsumsi daya 50% lebih rendah dari generasi sebelumnya.⁵⁴ Akselerator perangkat keras inovatif untuk ML/AI inline memberikan peningkatan kinerja 100 kali lipat dibanding inferensi berbasis perangkat lunak.⁵⁵
Implementasi keamanan zero-trust
DPU memungkinkan penegakan keamanan zero-trust di edge jaringan tanpa melibatkan CPU host.⁵⁶ Arsitektur ini menempatkan penegakan kebijakan di sumber data, bukan di titik agregasi jaringan.
Firewall L4 berjalan langsung di DPU, menegakkan kebijakan sebelum lalu lintas mencapai host.⁵⁷ DPU BlueField dari NVIDIA mendukung mikrosegmentasi, memungkinkan operator menerapkan prinsip zero-trust pada beban kerja GPU tanpa keterlibatan CPU host.⁵⁸
Model keamanan ini sangat penting untuk infrastruktur AI multi-tenant. Ketika beberapa pelanggan berbagi kluster GPU, DPU menegakkan isolasi antar tenant di tingkat jaringan.⁵⁹ Sistem operasi host tidak pernah melihat lalu lintas yang ditujukan untuk tenant lain, mengurangi permukaan serangan.
Root of trust membangun verifikasi kriptografis komponen infrastruktur.⁶⁰ DPU memvalidasi firmware, sistem operasi, dan aplikasi sebelum mengizinkan akses jaringan. Host yang dikompromikan tidak dapat berkomunikasi di jaringan tanpa melewati verifikasi yang ditegakkan DPU.
DPU memungkinkan fungsi monitoring jaringan, telemetri, dan observabilitas dalam lingkungan zero-trust yang sangat terdistribusi di seluruh instans cloud dan edge.⁶¹ Visibilitas meluas ke lalu lintas terenkripsi melalui inspeksi TLS yang diakselerasi perangkat keras tanpa penalti kinerja dari dekripsi berbasis perangkat lunak.
Integrasi infrastruktur AI
Kluster AI menghadirkan persyaratan DPU spesifik yang berbeda dari beban kerja pusat data umum. Pola lalu lintas timur-barat antar GPU selama pelatihan terdistribusi menciptakan tuntutan bandwidth berkelanjutan yang tidak dapat ditangani NIC tradisional tanpa bantuan CPU.⁶²
Operasi kolektif—all-reduce, all-gather, dan broadcast—membentuk tulang punggung komunikasi pelatihan terdistribusi.⁶³ DPU dapat mengakselerasi operasi ini melalui offload perangkat keras, mengurangi latensi dan membebaskan komputasi GPU untuk eksekusi model aktual.
Dukungan RDMA terbukti penting untuk beban kerja AI. DPU menangani pemrosesan RoCEv2 (RDMA over Converged Ethernet) atau InfiniBand RDMA di perangkat keras, sepenuhnya mem-bypass stack jaringan host.⁶⁴ Transfer data zero-copy antara memori GPU dan jaringan meminimalkan latensi dan memaksimalkan utilisasi bandwidth.
Kontrol kongesti menjadi kritis pada skala kluster AI. DPU mengimplementasikan DCQCN (Data Center Quantized Congestion Notificati
[Konten dipotong untuk terjemahan]