Câbles et Interconnexions : Sélection des DAC, AOC, AEC et Fibres pour les Centres de Données IA 800G
Mis à jour le 11 décembre 2025
Mise à jour de décembre 2025 : Le 800G devient la norme par défaut pour les nouveaux déploiements IA, avec le 1.6T en essais de développement. La technologie AEC atteint 9 mètres en 800G (démo Marvell/Infraeo à l'OCP), comblant l'écart DAC-AOC avec 25-50 % de consommation en moins par rapport à l'optique. Les câbles NVIDIA LinkX AOC sont installés dans la majorité des systèmes HPC du TOP500. Les formats QSFP-DD800 et OSFP prennent en charge le PAM4 pour les déploiements en production.
Les centres de données d'IA générative nécessitent dix fois plus de fibres que les installations conventionnelles pour prendre en charge les clusters GPU et les interconnexions à faible latence.¹ L'infrastructure de câblage reliant les commutateurs 800G à des milliers de GPU détermine si les ressources de calcul coûteuses atteignent leur pleine utilisation ou créent un goulot d'étranglement sur la connectivité réseau. Avec le 800G devenant le choix par défaut pour les nouveaux déploiements de centres de données IA et le 1.6T déjà en essais de développement, les décisions de sélection de câbles prises aujourd'hui déterminent la flexibilité de l'infrastructure pour les années à venir.²
Le paysage des interconnexions est devenu plus complexe que le choix traditionnel entre DAC et AOC. Les câbles électriques actifs (AEC) comblent désormais l'écart entre les solutions cuivre et optiques, atteignant 9 mètres tout en consommant 25-50 % d'énergie en moins que les alternatives optiques actives.³ Les formats ont évolué du QSFP-DD vers l'OSFP, chacun étant optimisé pour différentes exigences thermiques et de densité. Les organisations déployant une infrastructure IA doivent naviguer entre les exigences de distance, les budgets énergétiques, les contraintes de refroidissement et les chemins de mise à niveau à travers des types de câbles qui excellent chacun dans des scénarios spécifiques.
Le DAC offre le coût et la latence les plus bas pour les courtes distances
Les câbles Direct Attach Copper (DAC) restent le choix optimal pour les connexions intra-rack lorsque la distance le permet. Les interconnexions à base de cuivre ne nécessitent aucune conversion photoélectrique, transmettant les signaux directement avec pratiquement aucune latence supplémentaire.⁴ Une structure simple et une haute fiabilité réduisent la complexité opérationnelle tout en maintenant des coûts nettement inférieurs aux alternatives optiques.
Les produits DAC 800G utilisent les formats QSFP-DD800 ou OSFP prenant en charge la technologie PAM4. Le DAC passif ne consomme pratiquement pas d'énergie (moins de 0,15W), tandis que la consommation du DAC actif reste bien inférieure à celle des modules optiques.⁵ L'avantage en termes de coût se compose à grande échelle, les déploiements importants économisant des sommes significatives par rapport aux alternatives optiques.
Les limitations de distance contraignent l'applicabilité du DAC. Le DAC passif atteint environ 3 mètres aux vitesses 800G, le DAC actif s'étendant jusqu'à 5 mètres.⁶ Lorsque les distances d'interconnexion dépassent ces seuils, les pertes de transmission et l'inflexibilité des câbles rendent le DAC impraticable.
Les caractéristiques physiques présentent des défis supplémentaires. Les câbles en cuivre sont plus épais que les alternatives optiques, avec un rayon de courbure plus important et un poids plus élevé compliquant les déploiements denses.⁷ La gestion des câbles dans les racks haute densité devient plus difficile à mesure que le nombre de DAC augmente.
Les meilleures applications pour le DAC comprennent les connexions serveur-à-ToR (Top of Rack) au sein des racks, l'interconnexion haute vitesse entre serveurs adjacents, et les environnements avec une sensibilité extrême à la latence sur des distances limitées.⁸ L'architecture de cluster IA de Meta utilise des câbles DAC pour les connexions des commutateurs d'entraînement de rack vers les GPU, démontrant le rôle de cette technologie dans l'infrastructure IA en production.⁹
L'AOC étend la portée avec des performances optiques
Les câbles optiques actifs (AOC) intègrent des modules de conversion photoélectrique, convertissant les signaux électriques en signaux optiques pour la transmission. La technologie prend en charge des distances de transmission de 30 à 100 mètres dans les configurations 800G tout en maintenant les formats QSFP-DD800 ou OSFP.¹⁰
Les caractéristiques de performance favorisent l'AOC pour les connexions de moyenne distance. Un poids léger, une excellente flexibilité et une immunité aux interférences électromagnétiques permettent des déploiements plus denses sans compromis sur les performances.¹¹ Une meilleure dissipation thermique que les alternatives en cuivre aide à gérer les charges thermiques dans les environnements denses en GPU.
La consommation d'énergie est plus élevée que le DAC à 1-2W par câble, mais reste acceptable pour les capacités de distance fournies.¹² Le coût atteint environ 4 fois celui du DAC pour des spécifications similaires, reflétant l'électronique interne plus complexe et les composants optiques.¹³
Les câbles AOC 800G ciblent les applications émergentes dans les centres de données IA, les installations d'entraînement de machine learning et les environnements cloud hyperscale où les demandes de bande passante dépassent le 400G.¹⁴ La technologie s'avère idéale pour les interconnexions de clusters GPU, les connexions inter-rangées et les environnements d'entraînement IA à grande échelle nécessitant un câblage flexible avec des distances de transmission moyennes.¹⁵
Les câbles NVIDIA LinkX AOC démontrent une optimisation spécifique au fournisseur pour les charges de travail IA. Conçus et fabriqués par LinkX Optics, les câbles sont installés dans la majorité des systèmes HPC du TOP500.¹⁶ Les produits couvrent les formats QSFP prenant en charge du QDR au NDR (400G) sur des distances allant jusqu'à 150 mètres, avec des tests à 100 % dans les systèmes réels de réseau et GPU NVIDIA garantissant une intégrité de signal optimale.¹⁷
L'AEC comble l'écart entre DAC et AOC
Les câbles électriques actifs (AEC) représentent le terrain d'entente émergent entre les solutions DAC et AOC. La technologie intègre des puces retimer ou DSP à l'intérieur des câbles pour améliorer la transmission du signal, amplifiant les signaux, les égalisant et effectuant une récupération de données d'horloge pour résoudre les défis de transmission sur cuivre.¹⁸
Les capacités de distance dépassent significativement le DAC. L'AEC prend en charge des longueurs de câble de 2 à 9 mètres, permettant des connexions fiables à travers les racks dans des configurations de centres de données denses.¹⁹ Marvell et Infraeo ont démontré un AEC 800G de 9 mètres au Sommet Mondial OCP 2025, permettant des connexions cuivre couvrant sept racks et rapprochant l'architecture des centres de données de la conception de systèmes IA à l'échelle de la rangée complète.²⁰
Les avantages d'efficacité énergétique par rapport à l'AOC sont substantiels. L'AEC consomme environ 20 % d'énergie en moins que les alternatives optiques tout en prenant en charge 8 voies de signalisation 106,25G-PAM4 pour le trafic bidirectionnel 800G.²¹ La consommation totale d'environ 10W représente une consommation 25-50 % inférieure à l'AOC, améliorant le flux d'air et la gestion du poids dans les environnements haute densité.²²
Le positionnement coût-performance rend l'AEC attractif pour les grands déploiements. Les câbles coûtent moins cher que l'AOC tout en offrant des capacités supérieures au DAC, offrant un investissement judicieux pour les environnements exigeants en bande passante.²³ Les analystes du secteur chez 650 Group notent que les hyperscalers ont besoin de solutions avec une bande passante élevée, une faible consommation et un faible coût, positionnant l'AEC comme la solution optimale pour l'infrastructure IA générative.²⁴
Le marché de l'AEC projette un TCAC de 28,2 % jusqu'en 2031, atteignant 1,257 milliard de dollars alors que la technologie devient standard dans les déploiements de clusters IA.²⁵ Les principaux fournisseurs incluant Amphenol, TE Connectivity, Molex et Credo investissent dans des modules de nouvelle génération capables de 112 Gbps par voie, évoluant vers 224 Gbps pour les systèmes 800G et 1.6T.²⁶
Sélection du format OSFP versus QSFP-DD
Les formats de transceiver déterminent la densité de ports des commutateurs, les exigences de gestion thermique et la flexibilité de mise à niveau. Deux standards se concurrencent pour les déploiements 400G et 800G : OSFP et QSFP-DD.
OSFP (Octal Small Form-factor Pluggable) fournit un format mécanique plus grand optimisé pour les applications à haute capacité thermique. La conception permet une dissipation de puissance jusqu'à 15-20W, prenant en charge nativement 8 voies pour la connectivité 400G et 800G.²⁷ L'OSFP excelle dans les interconnexions de clusters IA de nouvelle génération où la fiabilité des liens et la gestion de l'alimentation l'emportent sur les préoccupations de taille du format.²⁸
Les configurations OSFP 800G à double port abritent 8 canaux de signalisation électrique avec deux moteurs optiques ou cuivre de 400 Gbps sortant vers deux ports. Des ailettes de refroidissement supplémentaires prennent en charge les transceivers de 17W, désignés comme produits « 2x400G twin-port OSFP finned-top ».²⁹
QSFP-DD (Quad Small Form-factor Pluggable Double Density) offre une flexibilité grâce à la rétrocompatibilité. Les ports QSFP-DD exécutent généralement des modules 400G et 800G, permettant des mises à niveau incrémentielles sans remplacement de commutateur.³⁰ Une compatibilité totale avec les standards QSFP+, QSFP28 et QSFP56 permet des chemins de migration fluides.³¹
Le QSFP-DD 400G reste le standard le plus largement déployé dans les environnements Ethernet axés sur l'IA, particulièrement au sein des clusters GPU basés sur NVIDIA.³² Le format domine dans les réseaux se mettant à niveau progressivement depuis des vitesses inférieures.
Les conseils de sélection dépendent de la stratégie de déploiement. Le QSFP-DD convient aux réseaux se mettant à niveau étape par étape, tandis que l'OSFP favorise les nouveaux déploiements privilégiant l'évolutivité à long terme plutôt que la rétrocompatibilité.³³ Les organisations anticipant une expansion vers le 1.6T devraient privilégier l'architecture OSFP pour une mise à l'échelle future plus facile.
Stratégie de câblage basée sur la distance
La sélection optimale de câbles suit les exigences de distance à travers la topologie du centre de données :
Connexions intra-rack (0-3m) : Le DAC offre le coût le plus bas, la latence la plus faible et la consommation d'énergie la plus basse. Utilisez le DAC passif lorsque les distances le permettent, le DAC actif lorsqu'un conditionnement de signal supplémentaire améliore les performances.
Connexions de racks adjacents (3-7m) : L'AEC étend les avantages du cuivre avec une restauration active du signal. Les économies d'énergie de 25-50 % par rapport à l'AOC se composent sur des milliers de connexions dans les grands clusters GPU.
Connexions inter-rangées (7-100m) : L'AOC offre la portée requise pour les architectures spine-leaf couvrant les salles de données. Les modules multimode SR8/DR8 prennent en charge des distances jusqu'à 100 mètres avec des connecteurs MTP/MPO.³⁴
Connexions inter-bâtiments (100m-2km+) : La fibre monomode avec des modules FR4/LR4 fournit la portée pour connecter les clusters entre les installations. Installez de la SMF pour les liaisons cœur-backbone ou inter-bâtiments en planifiant la croissance future de la bande passante.³⁵
Les connexions GPU serveur-à-leaf dans les configurations ToR couvrent généralement 100-300 mètres.³⁶ Les liaisons leaf-à-spine utilisant des interfaces 400G/800G couvrent 300-800 mètres à travers les salles de données.³⁷ Faire correspondre la technologie de câble aux exigences de distance optimise le coût tout en assurant les performances.
Le portefeuille NVIDIA LinkX couvre tous les besoins
La famille de produits LinkX fournit la gamme d'interconnexions la plus complète de l'industrie, couvrant du 10G au 1600G en protocoles Ethernet et de l'EDR au XDR en protocoles InfiniBand.³⁸ Les produits répondent à toutes les exigences de distance et de vitesse pour l'infrastructure IA.
Les produits 800G et 400G relient les commutateurs InfiniBand Quantum-2 et Ethernet Spectrum-4 SN5600 aux adaptateurs ConnectX-7, aux DPU BlueField-3 et aux systèmes DGX H100.³⁹ La gamme de produits comprend des DAC atteignant 3 mètres, des câbles cuivre actifs linéaires de 3-5 mètres, des optiques multimode jusqu'à 50 mètres, et des optiques monomode jusqu'à 100 mètres, 500 mètres et 2 kilomètres.⁴⁰
La prise en charge double protocole simplifie la gestion des stocks. Les câbles et transceivers LinkX 100G-PAM4 prennent en charge les protocoles InfiniBand et Ethernet dans le même appareil en utilisant des références identiques.⁴¹ La détermination du protocole se fait lors de l'insertion dans les commutateurs InfiniBand NDR Quantum-2 ou Ethernet Spectrum-4.
L'assurance qualité dépasse les standards de l'industrie. Au-delà de la conformité IBTA, les câbles certifiés LinkX subissent des tests à 100 % dans les systèmes réels de réseau et GPU NVIDIA, garantissant une intégrité de signal optimale et des performances de bout en bout.⁴² Les exigences de test dépassent les standards de l'industrie pour les AOC Ethernet, atteignant des niveaux de qualité de grade supercalculateur.
Rayon de courbure et gestion des câbles en haute densité
Les déploiements haute densité nécessitent une attention particulière au routage des câbles et au maintien du rayon de courbure. Une courbure inappropriée provoque une atténuation du signal et des dommages permanents à la fibre qui dégradent les performances au fil du temps.
Les directives standard de rayon de courbure spécifient que les câbles à fibre ne doivent jamais être pliés plus serrés que dix fois le diamètre extérieur.⁴³ Les phases d'installation nécessitent des minimums plus conservateurs de vingt fois le diamètre.⁴⁴ Les variations de température, les vibrations et les mouvements modifient les caractéristiques de courbure de la fibre, nécessitant une augmentation de 35 % du rayon de courbure dans les environnements à fortes vibrations ou sismiques.⁴⁵
Les options de fibre insensible à la courbure réduisent les contraintes. La spécification ITU G.657 définit des fibres monomodes insensibles à la courbure avec des rayons de courbure minimums de 5mm (G.657.B2) à 10mm (G.657.A1), comparés à 30mm pour la fibre standard G.652.⁴⁶ Cependant, les câbles de centre de données à grand nombre de fibres créent des constructions rigides qui ne peuvent physiquement pas atteindre ces rayons serrés sans dommage, rend
[Contenu tronqué pour la traduction]