محولات إيثرنت للذكاء الاصطناعي: منصات 51.2 تيرابت في الثانية التي تربط مجموعات GPU
آخر تحديث: 11 ديسمبر 2025
تحديث ديسمبر 2025: تتصدر إيثرنت الآن عمليات نشر الشبكات الخلفية للذكاء الاصطناعي وفقاً لمجموعة Dell'Oro. يحقق نظام xAI Colossus (100,000 وحدة H100) إنتاجية 95% مع Spectrum-X مقارنة بـ 60% على إيثرنت التقليدية. يوفر Broadcom Tomahawk 5 سعة 51.2 تيرابت في الثانية في شريحة واحدة متكاملة (64 منفذ 800GbE). مواصفات اتحاد Ultra Ethernet المكونة من 560 صفحة تضع معايير محسّنة للذكاء الاصطناعي. يوفر NVIDIA Spectrum-X800 أداءً أعلى بمقدار 1.6 مرة للذكاء الاصطناعي مقارنة بإيثرنت التقليدية.
تتصدر إيثرنت الآن عمليات نشر الشبكات الخلفية للذكاء الاصطناعي. تفيد مجموعة Dell'Oro أن المزايا التنافسية في التكلفة، والأنظمة البيئية متعددة الموردين، والألفة التشغيلية تدفع التبني على حساب InfiniBand في 2025.¹ يكتسب هذا التحول زخماً مع إثبات حاسوب xAI Colossus الفائق لأداء إيثرنت على نطاق واسع، حيث يربط 100,000 وحدة GPU من NVIDIA Hopper باستخدام شبكات Spectrum-X ويحقق إنتاجية بيانات 95% مع التحكم المتقدم في الازدحام.² تعاني إيثرنت التقليدية على نطاق مماثل من آلاف تصادمات التدفق، مما يحد الإنتاجية إلى حوالي 60%.³
تضاعفت عرض النطاق الترددي لرقائق المحولات لتلبية متطلبات الذكاء الاصطناعي. يوفر Tomahawk 5 من Broadcom سعة 51.2 تيرابت في الثانية في شريحة واحدة متكاملة، مما يشغّل محولات بـ 64 منفذاً بسرعة 800GbE أو 128 منفذاً بسرعة 400GbE.⁴ تطابق منصة NVIDIA Spectrum-X800 هذه السعة مع إضافة تحسينات خاصة بالذكاء الاصطناعي من خلال التكامل البرمجي مع BlueField SuperNICs. تضع مواصفات اتحاد Ultra Ethernet الصادرة في يونيو 2025 معايير لإيثرنت المحسّنة للذكاء الاصطناعي، وتؤسس إطاراً من 560 صفحة للتحكم في الازدحام ونقل RDMA والتوافقية متعددة الموردين.⁵
Broadcom Tomahawk 5 يضع معيار عرض النطاق الترددي
توفر سلسلة محولات StrataXGS Tomahawk 5 سعة تبديل إيثرنت تبلغ 51.2 تيرابت في الثانية في جهاز واحد متكامل، مما يضاعف عرض النطاق الترددي لرقائق الجيل السابق.⁶ تمثل الشريحة استمرار هيمنة Broadcom في رقائق المحولات التجارية، محافظة على وتيرة مضاعفة عرض النطاق الترددي التي تأسست مع Tomahawk 1 في 2014.
تميّز قرارات الهندسة المعمارية Tomahawk 5 عن المنافسين. بينما تستخدم التصاميم المنافسة بسعة 51.2 تيرابت في الثانية هندسة الشرائح الصغيرة (chiplet) التي تلف عدة شرائح SerDes للإشارات حول محركات معالجة الحزم المتكاملة، يحقق Tomahawk 5 عرض النطاق الكامل في قطعة واحدة من السيليكون باستخدام تقنية التصنيع 5 نانومتر.⁷ توفر هندسة الذاكرة المؤقتة المشتركة أعلى أداء وأقل تأخير ذيلي لبروتوكولات RoCEv2 وبروتوكولات RDMA الأخرى الحاسمة لأحمال عمل الذكاء الاصطناعي.⁸
تدعم تكوينات المنافذ سيناريوهات نشر متنوعة: 64 منفذاً بسرعة 800 جيجابت في الثانية لنشر العمود الفقري الذي يتطلب أقصى عرض نطاق لكل منفذ، و128 منفذاً بسرعة 400 جيجابت في الثانية لمحولات الطبقة المتوازنة، و256 منفذاً بسرعة 200 جيجابت في الثانية للبيئات التي تتطلب اتصالاً واسعاً بالخوادم.⁹ تدعم الشريحة كلاً من طوبولوجيات Clos التقليدية والهندسات غير Clos بما في ذلك تكوينات torus وDragonfly وDragonfly+ وMegafly المحسّنة لاتصالات مجموعات الذكاء الاصطناعي.¹⁰
تستهدف الميزات المتقدمة متطلبات أحمال عمل الذكاء الاصطناعي/التعلم الآلي مباشرة. يوفر Cognitive Routing توزيعاً ذكياً لحركة المرور. يوزع موازنة الأحمال الديناميكية التدفقات عبر المسارات المتاحة. يمنع التحكم في الازدحام من طرف إلى طرف تشبع الشبكة الذي يقلل من استخدام GPU.¹¹ تدعي Broadcom أن Jericho3-AI يوفر أوقات إنجاز مهام أقصر بأكثر من 10% مقارنة بالشرائح المنافسة من خلال هذه التحسينات.¹²
تثبت مكاسب كفاءة الطاقة أنها كبيرة. يحل Tomahawk 5 واحد محل ثمانية وأربعين محول Tomahawk 1 في عرض النطاق المكافئ، مما يؤدي إلى انخفاض متطلبات الطاقة بأكثر من 95%.¹³ بالنسبة لمراكز بيانات الذكاء الاصطناعي التي تعاني بالفعل من كثافة الطاقة لكل حامل، تتضافر تحسينات كفاءة الشبكات مع تحسين الحوسبة والتبريد.
تستفيد منتجات المحولات التجارية من موردين متعددين من رقاقة Tomahawk 5. يوفر N9600-64OD من FS.com 64 منفذ 800GbE مع تأخير أقل من ميكروثانية.¹⁴ تقدم سلسلة N9500 من NADDOD تكوينات 400G و800G محسّنة لنشر مراكز بيانات الذكاء الاصطناعي.¹⁵ تستخدم عائلة 7060X6 AI Leaf من Arista شريحة Tomahawk 5 لسعة 51.2 تيرابت في الثانية في عامل شكل 2RU.¹⁶
NVIDIA Spectrum-X يبني إيثرنت أصلية للذكاء الاصطناعي
صممت NVIDIA منصة Spectrum-X كأول منصة شبكات إيثرنت مصممة خصيصاً لأحمال عمل الذكاء الاصطناعي. تجمع المنصة بين محولات Spectrum SN5600 وبطاقات BlueField-3 SuperNICs، مما يسرّع أداء الذكاء الاصطناعي التوليدي بمقدار 1.6 مرة مقارنة بتطبيقات إيثرنت التقليدية.¹⁷
يوفر محول Spectrum-X800 SN5600 64 منفذ 800GbE باستخدام عوامل شكل OSFP وسعة تبديل إجمالية 51.2 تيرابت في الثانية.¹⁸ تتجاوز هندسة Spectrum-4 الكامنة في المحول قدرات الجيل السابق في كل من السعة وكثافة المنافذ. يتيح التكامل مع بطاقات BlueField SuperNICs التحكم المنسق في الازدحام والتوجيه التكيفي وجمع القياسات عبر نسيج الشبكة بأكمله.
تتحقق عمليات النشر الواقعية من صحة الهندسة. تستخدم مجموعة xAI Colossus شبكة Spectrum-X Ethernet لتدريب عائلة نماذج اللغة الكبيرة Grok عبر 100,000 وحدة GPU.¹⁹ يحقق النظام إنتاجية بيانات 95% من خلال تقنية التحكم في الازدحام المحسّنة خصيصاً لأنماط الاتصال المتقطعة والمتزامنة للتدريب الموزع للذكاء الاصطناعي.²⁰
توسع إعلانات منتجات 2025 قدرات Spectrum-X بشكل كبير. تدمج محولات Spectrum-X Photonics التي أُعلن عنها في مارس 2025 الدوائر الإلكترونية مع الاتصالات الضوئية على نطاق واسع.²¹ تشمل التكوينات 128 منفذاً بسرعة 800 جيجابت في الثانية (100 تيرابت في الثانية إجمالاً) و512 منفذاً بسرعة 800 جيجابت في الثانية (400 تيرابت في الثانية إجمالاً)، مما يتيح مصانع الذكاء الاصطناعي التي تربط ملايين وحدات GPU مع تقليل استهلاك الطاقة.²²
تقدم Spectrum-XGS Ethernet التي أُعلن عنها في أغسطس 2025 تقنية التوسع العابر التي تجمع مراكز البيانات الموزعة في مصانع ذكاء اصطناعي فائقة موحدة بمقياس الجيجا.²³ تمثل التقنية ركيزة ثالثة للحوسبة الذكاء الاصطناعي تتجاوز التوسع العمودي التقليدي (NVLink) والتوسع الأفقي (الشبكات القياسية)، مما يتيح للمؤسسات تجميع البنية التحتية الموزعة في بيئات تدريب متماسكة.
يعتمد كبار مزودي الخدمات السحابية على Spectrum-X. أعلنت Meta وOracle في أكتوبر 2025 أنهما ستنشران محولات Spectrum-X Ethernet كهندسة شبكات مفتوحة ومسرّعة تعزز كفاءة تدريب الذكاء الاصطناعي.²⁴ يضع النظام البيئي متعدد الموردين Spectrum-X كحل من NVIDIA ومنصة صناعية في آن واحد.
اتحاد Ultra Ethernet يضع معايير جاهزة للذكاء الاصطناعي
أصدر اتحاد Ultra Ethernet المواصفات 1.0 في 11 يونيو 2025، مؤسساً إطاراً شاملاً من 560 صفحة لشبكات الذكاء الاصطناعي والحوسبة عالية الأداء.²⁵ يوحد الاتحاد، الذي أُطلق في 2023 تحت مظلة Linux Foundation، أكثر من 50 شركة تقنية بما في ذلك AMD وIntel وBroadcom وCisco وArista وMeta وMicrosoft وDell وSamsung وHuawei.²⁶
تعالج الابتكارات التقنية القيود الأساسية في إيثرنت التقليدية لأحمال عمل الذكاء الاصطناعي. تحدد المواصفات تطبيقات RDMA المحسّنة وبروتوكولات النقل وآليات التحكم في الازدحام المصممة لأنماط الاتصال المتزامنة والمتقطعة للتدريب الموزع.²⁷
تختلف مناهج التحكم في الازدحام جوهرياً عن تطبيقات RoCE التقليدية. لا يعتمد نهج UEC على الشبكات الخالية من الفقد كما كان مطلوباً تقليدياً، حيث يقدم وضعاً يقوده المستقبل حيث يمكن لنقاط النهاية الحد من إرسالات المرسل بشكل نشط بدلاً من البقاء سلبية.²⁸ يتيح هذا التحول بناء شبكات أكبر بكفاءة أفضل لأحمال عمل الذكاء الاصطناعي.
تمتد أهداف الأداء عبر عمليات النشر على مستوى المجموعات. تهدف المواصفات إلى أوقات ذهاب وإياب تتراوح بين 1 و20 ميكروثانية عبر المجموعات، محسّنة خصيصاً لبيئات مراكز البيانات التي تشغّل تدريب الذكاء الاصطناعي والاستدلال وأحمال عمل الحوسبة عالية الأداء.²⁹
تمنع ضمانات التوافقية الارتباط بمورد واحد. توفر مواصفات UEC 1.0 حلولاً عالية الأداء عبر بطاقات NIC والمحولات والبصريات والكابلات، مما يتيح التكامل السلس متعدد الموردين.³⁰ يسمح المعيار المفتوح للمؤسسات بالحصول على المكونات من موردين متعددين مع الحفاظ على اتساق الأداء.
يتبع توفر المنتجات إصدار المواصفات. أكدت Arista دعم تحسينات تبديل UEC 1.0 عبر محفظة منتجات Etherlink، بدءاً من منصات 7060X و7800R.³¹ تُشحن الأجهزة الداعمة للحزمة الكاملة من موردين متعددين بحلول أواخر 2025 أو أوائل 2026.³²
Arista وCisco تتنافسان في منصات الذكاء الاصطناعي المعيارية
يكيّف موردو الشبكات التقليديون منصات مراكز البيانات لمتطلبات أحمال عمل الذكاء الاصطناعي، متنافسين ضد نهج NVIDIA المصمم خصيصاً.
أُطلقت سلسلة 7800R4 من Arista في 29 أكتوبر 2025 كالجيل الرابع من أنظمة العمود الفقري المعيارية المصممة لنشر الذكاء الاصطناعي.³³ توفر المنصة إنتاجية نظام 460 تيرابت في الثانية (920 تيرابت في الثانية ازدواج كامل) عبر تكوينات من أربع إلى ستة عشر وحدة بطاقات خطية.³⁴ تتوسع أعداد المنافذ إلى 576 منفذ 800GbE أو 1152 منفذ 400GbE للاتصال الضخم بالمجموعات.³⁵
ينفذ 7800R4 معالجات Broadcom Jericho3-AI مع خط أنابيب حزم محسّن للذكاء الاصطناعي.³⁶ تجمع تقنية HyperPort أربعة منافذ 800 جيجابت في الثانية في اتصالات مجمعة 3.2 تيرابت في الثانية، مما يتيح أوقات إنجاز مهام أقصر بنسبة 44% لتدفقات النطاق الترددي للذكاء الاصطناعي مقارنة بموازنة الأحمال التقليدية عبر منافذ منفصلة.³⁷ تُشحن الهياكل المعيارية ومحولات 7280R4 ذات الشكل الثابت الآن، مع وصول متغيرات 7020R4 وبطاقات HyperPort الخطية في الربع الأول من 2026.³⁸
يوحد Cisco Silicon One قدرات التوجيه والتبديل مع أداء يصل إلى 51.2 تيرابت في الثانية مدعوماً بشريحة G200 ASIC.³⁹ تستهدف الهندسة كلاً من شبكات التوسع الأفقي والعمودي للذكاء الاصطناعي مع سعة عالية وتأخير منخفض للغاية وأوقات إنجاز مهام مخفضة.⁴⁰
توفر موجهات Cisco 8800 Series المعيارية أساس الهيكل. متوفرة في تكوينات 4 و8 و12 و18 فتحة، تدعم جميع الطرازات بطاقات خطية من الجيل الثالث 36x 800G (P100) المبنية على Silicon One.⁴¹ يوفر موجه Cisco 8223 سعة 51.2 تيرابت في الثانية باستخدام شريحة Silicon One P200 القابلة للبرمجة.⁴²
تدمج الشراكة الموسعة بين Cisco وNVIDIA شرائح Silicon One في حزمة Spectrum-X Ethernet، جامعة التبديل منخفض التأخير والتوجيه التكيفي والقياسات لدعم مجموعات GPU.⁴³ يتيح دعم SONiC (Software for Open Networking in the Cloud) على محولات Cisco 8000 Series للمؤسسات اختيار أنظمة تشغيل الشبكات المفتوحة التي تطابق المتطلبات التشغيلية.⁴⁴
RoCE يجعل إيثرنت قادرة على منافسة InfiniBand
يتيح RDMA over Converged Ethernet (RoCE) لشبكات إيثرنت مطابقة أداء InfiniBand لأحمال عمل الذكاء الاصطناعي عند تكوينها بشكل صحيح. نشرت Meta تفاصيل هندسية لمجموعتها المكونة من 24,000 وحدة GPU، مشيرة إلى أنهم ضبطوا كلاً من RoCE وInfiniBand لتوفير أداء مكافئ، مع تدريب أكبر النماذج على نسيج RoCE الخاص بهم.⁴⁵
يعتمد RoCE v2 على تكوين شبكة إيثرنت خالية من الفقد. يزيل التحكم في التدفق بالأولوية فقدان الحزم لفئات حركة المرور المحددة. يخصص Enhanced Transmission Selection عرض النطاق الترددي عبر أنواع حركة المرور. يشير Explicit Congestion Notification إلى الازدحام المبكر. يحسّن Dynamic Congestion Control أداء RDMA.⁴⁶ بدون التكوين الصحيح لهذه الآليات، يتدهور أداء RoCE بشكل كبير.
تتحقق منصات السحابة الرئيسية من صلاحية RoCE لأحمال عمل الذكاء الاصطناعي الإنتاجية. تستفيد أنواع آلات Google Cloud A3 Ultra وA4 Compute Engine من RoCEv2 لشبكات GPU عالية الأداء.⁴⁷ تستخدم مجموعة Oracle Zettascale10 الفائقة نسيج شبكة Acceleron RoCE مع بطاقات NIC إيثرنت متخصصة تحتوي على محولات مدمجة بأربعة منافذ لتقليل التأخير.⁴⁸
توضح هندسة مجموعة الذكاء الاصطناعي من Meta استخدام RoCE على نطاق واسع. يربط النسيج الخلفي جميع بطاقات RDMA NIC في طوبولوجيا غير محجوبة توفر عرض نطاق ترددي عالٍ وتأخيراً منخفضاً ونقلاً خالياً من الفقد بين أي وحدتي GPU.⁴⁹ تنظم طوبولوجيا Clos ذات المرحلتين حوامل الذكاء الاصطناعي في مناطق، مع محولات التدريب على مستوى الحامل التي تعمل كمحولات ورقية تربط وحدات GPU عبر كابلات DAC النحاسية.⁵⁰
تفضل اعتبارات التكلفة إيثرنت للعديد من عمليات النشر. بالنسبة لشركات المستوى الثاني والثالث التي تنشر مجموعات من 256-1,024 وحدة GPU، تمثل إيثرنت مع RoCE التوصية الافتراضية ما لم تبرر متطلبات التأخير المحددة والمحسوبة تكلفة الشبكات المضاعفة لـ InfiniBand.⁵¹ دراسات الحالة المنشورة لـ la
[تم اقتطاع المحتوى للترجمة]