AI के लिए ईथरनेट स्विच: GPU क्लस्टर्स को जोड़ने वाले 51.2Tbps प्लेटफॉर्म

AI के लिए ईथरनेट स्विच: GPU क्लस्टर्स को जोड़ने वाले 51.2Tbps प्लेटफॉर्म

AI के लिए ईथरनेट स्विच: GPU क्लस्टर्स को जोड़ने वाले 51.2Tbps प्लेटफॉर्म

11 दिसंबर, 2025 को अपडेट किया गया

दिसंबर 2025 अपडेट: Dell'Oro Group के अनुसार ईथरनेट अब AI बैक-एंड डिप्लॉयमेंट में अग्रणी है। xAI Colossus (100,000 H100s) पारंपरिक ईथरनेट पर 60% की तुलना में Spectrum-X के साथ 95% थ्रूपुट हासिल कर रहा है। Broadcom Tomahawk 5 सिंगल मोनोलिथिक चिप में 51.2Tbps (64x 800GbE) प्रदान कर रहा है। Ultra Ethernet Consortium का 560-पेज का स्पेसिफिकेशन AI-ऑप्टिमाइज्ड स्टैंडर्ड्स को औपचारिक रूप दे रहा है। NVIDIA Spectrum-X800 पारंपरिक ईथरनेट की तुलना में 1.6x AI परफॉर्मेंस प्रदान कर रहा है।

ईथरनेट अब AI बैक-एंड नेटवर्क डिप्लॉयमेंट में अग्रणी है। Dell'Oro Group की रिपोर्ट के अनुसार, 2025 में InfiniBand की तुलना में आकर्षक लागत लाभ, मल्टी-वेंडर इकोसिस्टम और ऑपरेशनल परिचितता अपनाने को बढ़ावा दे रही है।¹ यह बदलाव गति पकड़ रहा है क्योंकि xAI का Colossus सुपरकंप्यूटर बड़े पैमाने पर ईथरनेट परफॉर्मेंस प्रदर्शित करता है, Spectrum-X नेटवर्किंग का उपयोग करके 100,000 NVIDIA Hopper GPUs को जोड़ता है और एडवांस्ड कंजेशन कंट्रोल के साथ 95% डेटा थ्रूपुट प्राप्त करता है।² समान स्केल पर पारंपरिक ईथरनेट हजारों फ्लो कोलिजन से पीड़ित होता है, जो थ्रूपुट को लगभग 60% तक सीमित कर देता है।³

AI मांगों को पूरा करने के लिए स्विच सिलिकॉन ने बैंडविड्थ को दोगुना कर दिया है। Broadcom का Tomahawk 5 सिंगल मोनोलिथिक चिप में 51.2 टेराबिट्स प्रति सेकंड प्रदान करता है, जो 64 पोर्ट्स के 800GbE या 128 पोर्ट्स के 400GbE वाले स्विच को पावर करता है।⁴ NVIDIA का Spectrum-X800 प्लेटफॉर्म BlueField SuperNICs के साथ सॉफ्टवेयर इंटीग्रेशन के माध्यम से AI-स्पेसिफिक ऑप्टिमाइजेशन जोड़ते हुए इस क्षमता से मेल खाता है। जून 2025 का Ultra Ethernet Consortium स्पेसिफिकेशन AI-ऑप्टिमाइज्ड ईथरनेट के लिए मानकों को औपचारिक रूप देता है, कंजेशन कंट्रोल, RDMA ट्रांसपोर्ट और मल्टी-वेंडर इंटरऑपरेबिलिटी के लिए 560-पेज का फ्रेमवर्क स्थापित करता है।⁵

Broadcom Tomahawk 5 बैंडविड्थ बेंचमार्क सेट करता है

StrataXGS Tomahawk 5 स्विच सीरीज सिंगल मोनोलिथिक डिवाइस में 51.2 टेराबिट्स प्रति सेकंड ईथरनेट स्विचिंग क्षमता प्रदान करती है, जो पिछली पीढ़ी के सिलिकॉन की बैंडविड्थ को दोगुना करती है।⁶ यह चिप मर्चेंट स्विच सिलिकॉन में Broadcom के निरंतर प्रभुत्व का प्रतिनिधित्व करती है, जो 2014 में Tomahawk 1 के साथ स्थापित बैंडविड्थ डबलिंग केडेंस को बनाए रखती है।

आर्किटेक्चर निर्णय Tomahawk 5 को प्रतिस्पर्धियों से अलग करते हैं। जबकि प्रतिस्पर्धी 51.2Tbps डिज़ाइन मोनोलिथिक पैकेट प्रोसेसिंग इंजन के चारों ओर कई सिग्नलिंग SerDes चिपलेट्स को लपेटने वाले चिपलेट आर्किटेक्चर का उपयोग करते हैं, Tomahawk 5 5nm प्रोसेस टेक्नोलॉजी का उपयोग करके सिलिकॉन के एक टुकड़े में पूर्ण बैंडविड्थ प्राप्त करता है।⁷ शेयर्ड-बफर आर्किटेक्चर AI वर्कलोड के लिए महत्वपूर्ण RoCEv2 और अन्य RDMA प्रोटोकॉल के लिए उच्चतम परफॉर्मेंस और सबसे कम टेल लेटेंसी प्रदान करता है।⁸

पोर्ट कॉन्फ़िगरेशन विविध डिप्लॉयमेंट परिदृश्यों का समर्थन करते हैं: अधिकतम पर-पोर्ट बैंडविड्थ की आवश्यकता वाले स्पाइन डिप्लॉयमेंट के लिए 800Gbps पर 64 पोर्ट, संतुलित लीफ स्विच के लिए 400Gbps पर 128 पोर्ट, और व्यापक सर्वर कनेक्टिविटी की आवश्यकता वाले वातावरण के लिए 200Gbps पर 256 पोर्ट।⁹ चिप पारंपरिक Clos टोपोलॉजी और AI क्लस्टर कम्युनिकेशन के लिए ऑप्टिमाइज्ड torus, Dragonfly, Dragonfly+, और Megafly कॉन्फ़िगरेशन सहित नॉन-Clos आर्किटेक्चर दोनों का समर्थन करता है।¹⁰

एडवांस्ड फीचर्स सीधे AI/ML वर्कलोड आवश्यकताओं को लक्षित करते हैं। Cognitive Routing इंटेलिजेंट ट्रैफिक डिस्ट्रीब्यूशन प्रदान करती है। डायनामिक लोड बैलेंसिंग उपलब्ध पाथ्स में फ्लो फैलाती है। एंड-टू-एंड कंजेशन कंट्रोल नेटवर्क सैचुरेशन को रोकता है जो GPU उपयोग को कम करता है।¹¹ Broadcom का दावा है कि Jericho3-AI इन ऑप्टिमाइजेशन के माध्यम से प्रतिस्पर्धी चिप्स की तुलना में 10% से अधिक कम जॉब कम्प्लीशन टाइम प्रदान करता है।¹²

पावर एफिशिएंसी में पर्याप्त सुधार साबित होते हैं। एक सिंगल Tomahawk 5 समतुल्य बैंडविड्थ में अड़तालीस Tomahawk 1 स्विच को रिप्लेस करता है, जिसके परिणामस्वरूप पावर आवश्यकताओं में 95% से अधिक की कमी होती है।¹³ पहले से ही पर-रैक पावर डेंसिटी से जूझ रहे AI डेटा सेंटर के लिए, नेटवर्किंग एफिशिएंसी में सुधार कंप्यूट और कूलिंग ऑप्टिमाइजेशन के साथ कंपाउंड होते हैं।

कई वेंडर्स के कमर्शियल स्विच प्रोडक्ट्स Tomahawk 5 सिलिकॉन का लाभ उठाते हैं। FS.com का N9600-64OD सब-माइक्रोसेकंड लेटेंसी के साथ 64x 800GbE पोर्ट प्रदान करता है।¹⁴ NADDOD का N9500 सीरीज AI डेटा सेंटर डिप्लॉयमेंट के लिए ऑप्टिमाइज्ड 400G और 800G दोनों कॉन्फ़िगरेशन प्रदान करता है।¹⁵ Arista का 7060X6 AI Leaf फैमिली 2RU फॉर्म फैक्टर में 51.2Tbps क्षमता के लिए Tomahawk 5 का उपयोग करता है।¹⁶

NVIDIA Spectrum-X AI-नेटिव ईथरनेट बनाता है

NVIDIA ने Spectrum-X को AI वर्कलोड के लिए विशेष रूप से निर्मित पहले ईथरनेट नेटवर्किंग प्लेटफॉर्म के रूप में डिज़ाइन किया। प्लेटफॉर्म Spectrum SN5600 स्विच को BlueField-3 SuperNICs के साथ जोड़ता है, पारंपरिक ईथरनेट इम्प्लीमेंटेशन की तुलना में जेनरेटिव AI परफॉर्मेंस को 1.6x तक एक्सेलेरेट करता है।¹⁷

Spectrum-X800 SN5600 स्विच OSFP फॉर्म फैक्टर का उपयोग करके 800GbE के 64 पोर्ट और 51.2Tbps कुल स्विचिंग क्षमता प्रदान करता है।¹⁸ स्विच के अंतर्निहित Spectrum-4 आर्किटेक्चर क्षमता और पोर्ट डेंसिटी दोनों में पिछली पीढ़ी की क्षमताओं से अधिक है। BlueField SuperNICs के साथ इंटीग्रेशन पूरे नेटवर्क फैब्रिक में समन्वित कंजेशन कंट्रोल, एडेप्टिव राउटिंग और टेलीमेट्री कलेक्शन को सक्षम बनाता है।

वास्तविक दुनिया के डिप्लॉयमेंट आर्किटेक्चर को मान्य करते हैं। xAI का Colossus क्लस्टर 100,000 GPUs में Grok फैमिली के लार्ज लैंग्वेज मॉडल को ट्रेन करने के लिए Spectrum-X ईथरनेट का उपयोग करता है।¹⁹ सिस्टम डिस्ट्रीब्यूटेड AI ट्रेनिंग के बर्स्टी, सिंक्रोनाइज्ड कम्युनिकेशन पैटर्न के लिए विशेष रूप से ऑप्टिमाइज्ड कंजेशन कंट्रोल टेक्नोलॉजी के माध्यम से 95% डेटा थ्रूपुट प्राप्त करता है।²⁰

2025 की प्रोडक्ट अनाउंसमेंट Spectrum-X क्षमताओं को महत्वपूर्ण रूप से विस्तारित करती हैं। मार्च 2025 में अनावरण किए गए Spectrum-X Photonics स्विच बड़े पैमाने पर इलेक्ट्रॉनिक सर्किट को ऑप्टिकल कम्युनिकेशन के साथ फ्यूज करते हैं।²¹ कॉन्फ़िगरेशन में 800Gbps के 128 पोर्ट (100Tbps कुल) और 800Gbps के 512 पोर्ट (400Tbps कुल) शामिल हैं, जो लाखों GPUs को जोड़ने वाले AI फैक्ट्रीज को सक्षम बनाते हैं जबकि ऊर्जा खपत को कम करते हैं।²²

अगस्त 2025 में घोषित Spectrum-XGS ईथरनेट स्केल-अक्रॉस टेक्नोलॉजी पेश करता है जो डिस्ट्रीब्यूटेड डेटा सेंटर को यूनिफाइड गीगा-स्केल AI सुपर-फैक्ट्रीज में जोड़ती है।²³ टेक्नोलॉजी पारंपरिक स्केल-अप (NVLink) और स्केल-आउट (स्टैंडर्ड नेटवर्किंग) से परे AI कंप्यूटिंग का तीसरा स्तंभ दर्शाती है, जो संगठनों को डिस्ट्रीब्यूटेड इंफ्रास्ट्रक्चर को सुसंगत ट्रेनिंग वातावरण में एग्रीगेट करने में सक्षम बनाती है।

प्रमुख क्लाउड प्रोवाइडर Spectrum-X पर मानकीकरण करते हैं। Meta और Oracle ने अक्टूबर 2025 में घोषणा की कि वे AI ट्रेनिंग एफिशिएंसी को एक्सेलेरेट करने वाले ओपन, एक्सेलेरेटेड नेटवर्किंग आर्किटेक्चर के रूप में Spectrum-X ईथरनेट स्विच डिप्लॉय करेंगे।²⁴ मल्टी-वेंडर इकोसिस्टम Spectrum-X को NVIDIA सॉल्यूशन और इंडस्ट्री प्लेटफॉर्म दोनों के रूप में पोजीशन करता है।

Ultra Ethernet Consortium AI-रेडी स्टैंडर्ड्स स्थापित करता है

Ultra Ethernet Consortium ने 11 जून, 2025 को Specification 1.0 जारी किया, जो AI और HPC नेटवर्किंग के लिए एक व्यापक 560-पेज का फ्रेमवर्क स्थापित करता है।²⁵ Linux Foundation के तहत 2023 में लॉन्च किया गया कंसोर्टियम, AMD, Intel, Broadcom, Cisco, Arista, Meta, Microsoft, Dell, Samsung और Huawei सहित 50 से अधिक टेक्नोलॉजी कंपनियों को एकजुट करता है।²⁶

तकनीकी नवाचार AI वर्कलोड के लिए पारंपरिक ईथरनेट में मौलिक सीमाओं को संबोधित करते हैं। स्पेसिफिकेशन डिस्ट्रीब्यूटेड ट्रेनिंग के सिंक्रोनाइज्ड, बर्स्टी कम्युनिकेशन पैटर्न के लिए डिज़ाइन किए गए एन्हांस्ड RDMA इम्प्लीमेंटेशन, ट्रांसपोर्ट प्रोटोकॉल और कंजेशन कंट्रोल मैकेनिज्म को परिभाषित करता है।²⁷

कंजेशन कंट्रोल दृष्टिकोण पारंपरिक RoCE इम्प्लीमेंटेशन से मौलिक रूप से भिन्न हैं। UEC दृष्टिकोण पारंपरिक रूप से आवश्यक लॉसलेस नेटवर्क पर निर्भर नहीं करता है, एक रिसीवर-ड्रिवन मोड पेश करता है जहां एंडपॉइंट पैसिव रहने के बजाय सेंडर ट्रांसमिशन को सक्रिय रूप से सीमित कर सकते हैं।²⁸ यह शिफ्ट AI वर्कलोड के लिए बेहतर एफिशिएंसी के साथ बड़े नेटवर्क के निर्माण को सक्षम बनाती है।

परफॉर्मेंस टारगेट क्लस्टर-स्केल डिप्लॉयमेंट को कवर करते हैं। स्पेसिफिकेशन का लक्ष्य क्लस्टर में 1 और 20 माइक्रोसेकंड के बीच राउंड-ट्रिप टाइम है, विशेष रूप से AI ट्रेनिंग, इन्फरेंस और HPC वर्कलोड चलाने वाले डेटा सेंटर वातावरण के लिए ऑप्टिमाइज़ करता है।²⁹

इंटरऑपरेबिलिटी गारंटी वेंडर लॉक-इन को रोकती है। UEC Specification 1.0 NICs, स्विच, ऑप्टिक्स और केबल्स में हाई-परफॉर्मेंस सॉल्यूशन प्रदान करता है, सीमलेस मल्टी-वेंडर इंटीग्रेशन को सक्षम बनाता है।³⁰ ओपन स्टैंडर्ड संगठनों को परफॉर्मेंस कंसिस्टेंसी बनाए रखते हुए कई सप्लायर्स से कंपोनेंट्स सोर्स करने की अनुमति देता है।

स्पेसिफिकेशन रिलीज़ के बाद प्रोडक्ट अवेलेबिलिटी आती है। Arista ने 7060X और 7800R प्लेटफॉर्म से शुरू करते हुए Etherlink प्रोडक्ट पोर्टफोलियो में UEC 1.0 स्विचिंग एन्हांसमेंट के लिए सपोर्ट की पुष्टि की।³¹ कई वेंडर्स से फुल-स्टैक सपोर्टिंग हार्डवेयर 2025 के अंत या 2026 की शुरुआत में शिप होता है।³²

Arista और Cisco मॉड्यूलर AI प्लेटफॉर्म में प्रतिस्पर्धा करते हैं

पारंपरिक नेटवर्किंग वेंडर NVIDIA के पर्पस-बिल्ट दृष्टिकोण के खिलाफ प्रतिस्पर्धा करते हुए AI वर्कलोड आवश्यकताओं के लिए डेटा सेंटर प्लेटफॉर्म को अनुकूलित करते हैं।

Arista की 7800R4 Series 29 अक्टूबर, 2025 को AI डिप्लॉयमेंट के लिए डिज़ाइन किए गए मॉड्यूलर स्पाइन सिस्टम की चौथी पीढ़ी के रूप में लॉन्च हुई।³³ प्लेटफॉर्म चार से सोलह लाइन कार्ड मॉड्यूल वाले कॉन्फ़िगरेशन में 460Tbps (920Tbps फुल डुप्लेक्स) सिस्टम थ्रूपुट प्रदान करता है।³⁴ मैसिव क्लस्टर कनेक्टिविटी के लिए पोर्ट काउंट 576x 800GbE या 1152x 400GbE तक स्केल होता है।³⁵

7800R4 AI-ऑप्टिमाइज्ड पैकेट पाइपलाइन के साथ Broadcom Jericho3-AI प्रोसेसर इम्प्लीमेंट करता है।³⁶ HyperPort टेक्नोलॉजी चार 800Gbps पोर्ट्स को 3.2Tbps एग्रीगेट कनेक्शन में जोड़ती है, अलग-अलग पोर्ट्स में पारंपरिक लोड बैलेंसिंग की तुलना में AI बैंडविड्थ फ्लो के लिए 44% कम जॉब कम्प्लीशन टाइम को सक्षम बनाती है।³⁷ मॉड्यूलर चेसिस और 7280R4 फिक्स्ड-फॉर्म स्विच अभी शिप होते हैं, 7020R4 वेरिएंट और HyperPort लाइनकार्ड Q1 2026 में आ रहे हैं।³⁸

Cisco Silicon One G200 ASIC द्वारा संचालित 51.2Tbps परफॉर्मेंस के साथ राउटिंग और स्विचिंग क्षमताओं को एकीकृत करता है।³⁹ आर्किटेक्चर हाई कैपेसिटी, अल्ट्रा-लो लेटेंसी और कम जॉब कम्प्लीशन टाइम के साथ AI स्केल-आउट और स्केल-अप नेटवर्किंग दोनों को लक्षित करता है।⁴⁰

Cisco 8800 Series मॉड्यूलर राउटर चेसिस फाउंडेशन प्रदान करते हैं। 4, 8, 12 और 18-स्लॉट कॉन्फ़िगरेशन में उपलब्ध, सभी मॉडल Silicon One पर आधारित थर्ड-जनरेशन 36x 800G (P100) लाइन कार्ड सपोर्ट करते हैं।⁴¹ Cisco 8223 राउटर Silicon One P200 प्रोग्रामेबल चिप का उपयोग करके 51.2Tbps क्षमता प्रदान करता है।⁴²

विस्तारित Cisco-NVIDIA पार्टनरशिप Silicon One चिप्स को Spectrum-X ईथरनेट स्टैक में इंटीग्रेट करती है, GPU क्लस्टर सपोर्ट के लिए लो-लेटेंसी स्विचिंग, एडेप्टिव राउटिंग और टेलीमेट्री को जोड़ती है।⁴³ Cisco 8000 Series स्विच पर SONiC (Software for Open Networking in the Cloud) सपोर्ट संगठनों को ऑपरेशनल आवश्यकताओं से मेल खाने वाले ओपन नेटवर्क ऑपरेटिंग सिस्टम चुनने में सक्षम बनाता है।⁴⁴

RoCE ईथरनेट को InfiniBand के साथ प्रतिस्पर्धी बनाता है

RDMA over Converged Ethernet (RoCE) जब ठीक से कॉन्फ़िगर किया जाता है तो ईथरनेट नेटवर्क को AI वर्कलोड के लिए InfiniBand परफॉर्मेंस से मैच करने में सक्षम बनाता है। Meta ने अपने 24,000-GPU क्लस्टर के लिए इंजीनियरिंग डिटेल्स प्रकाशित किए, बताते हुए कि उन्होंने RoCE और InfiniBand दोनों को समतुल्य परफॉर्मेंस प्रदान करने के लिए ट्यून किया, सबसे बड़े मॉडल अपने RoCE फैब्रिक पर ट्रेन किए गए।⁴⁵

RoCE v2 लॉसलेस ईथरनेट नेटवर्क कॉन्फ़िगरेशन पर निर्भर करता है। Priority Flow Control चयनित ट्रैफिक क्लासेस के लिए पैकेट लॉस को समाप्त करता है। Enhanced Transmission Selection ट्रैफिक टाइप्स में बैंडविड्थ आवंटित करता है। Explicit Congestion Notification जल्दी कंजेशन सिग्नल करता है। Dynamic Congestion Control RDMA परफॉर्मेंस को ऑप्टिमाइज़ करता है।⁴⁶ इन मैकेनिज्म के उचित कॉन्फ़िगरेशन के बिना, RoCE परफॉर्मेंस महत्वपूर्ण रूप से गिरती है।

प्रमुख क्लाउड प्लेटफॉर्म प्रोडक्शन AI वर्कलोड के लिए RoCE को मान्य करते हैं। Google Cloud की A3 Ultra और A4 Compute Engine मशीन टाइप्स हाई-परफॉर्मेंस GPU नेटवर्किंग के लिए RoCEv2 का लाभ उठाती हैं।⁴⁷ Oracle का Zettascale10 सुपरक्लस्टर लेटेंसी को कम करने के लिए इंटीग्रेटेड फोर-पोर्ट स्विच वाले स्पेशलाइज्ड ईथरनेट NICs के साथ Acceleron RoCE नेटवर्क फैब्रिक का उपयोग करता है।⁴⁸

Meta का AI क्लस्टर आर्किटेक्चर स्केल पर RoCE प्रदर्शित करता है। बैकएंड फैब्रिक सभी RDMA NICs को नॉन-ब्लॉकिंग टोपोलॉजी में जोड़ता है जो किसी भी दो GPUs के बीच हाई बैंडविड्थ, लो लेटेंसी और लॉसलेस ट्रांसपोर्ट प्रदान करती है।⁴⁹ टू-स्टेज Clos टोपोलॉजी AI रैक्स को जोन में व्यवस्थित करती है, रैक ट्रेनिंग स्विच लीफ स्विच के रूप में कार्य करते हैं जो कॉपर DAC केबल्स के माध्यम से GPUs को जोड़ते हैं।⁵⁰

कॉस्ट विचार कई डिप्लॉयमेंट के लिए ईथरनेट का पक्ष लेते हैं। 256-1,024 GPU क्लस्टर डिप्लॉय करने वाली टियर 2 और टियर 3 कंपनियों के लिए, RoCE के साथ ईथरनेट डिफ़ॉल्ट सिफारिश का प्रतिनिधित्व करता है जब तक कि विशिष्ट, क्वांटिफाइड लेटेंसी आवश्यकताएं InfiniBand की 2x नेटवर्किंग लागत को उचित नहीं ठहराती हैं।⁵¹ la के प्रकाशित केस स्टडीज

[अनुवाद के लिए सामग्री छोटी की गई]

कोटेशन का अनुरोध करें_

अपने प्रोजेक्ट के बारे में बताएं और हम 72 घंटों के भीतर जवाب देंगे।

> TRANSMISSION_COMPLETE

अनुरोध प्राप्त हुआ_

आपकी पूछताछ के लिए धन्यवाद। हमारी टीम आपके अनुरोध की समीक्षा करेगी और 72 घंटों के भीतर उत्तर देगी।

QUEUED FOR PROCESSING