超节点与Scale up网络专题之英伟达:行业标杆,领先优势建立在NVLink和NVLink Switch-.pptxVIP

  • 0
  • 0
  • 约1.68万字
  • 约 10页
  • 2026-02-13 发布于北京
  • 举报

超节点与Scale up网络专题之英伟达:行业标杆,领先优势建立在NVLink和NVLink Switch-.pptx

投资摘要:

大语言模型(LLM)参数规模从千亿级向万亿级乃至十万亿级演进,跨服务器张量并行(TP)成为必然选择;此外混合专家(MoE)模型在Transformer架构LLM中的规模化应用,更使跨服务器专家并行(EP)成为分布式训练和推理的关键技术需求。为应对TP和EP对网络带宽与延迟的极为严苛的要求,构建超高带宽、超低延迟的Scaleup网络(纵向扩张网络)成为业界主流技术路径。

目前英伟达超节点已经推出成熟方案。2024-2026年,英伟达陆续推出GH200NVL72、GB200/GB300NVL72、VR200NVL72三代超节点。

lHopper架构开启超节点Scaleup初步探索。GH200通过NVLink和NVLink-C2C(Chip-to-Chip)技术,使得每个GPU可以访问其他所有CPU和GPU芯片的内存,实现GPU与CPU内存统一编址。

lBlackwell架构推动Scaleup标准化。GB200NVL72将Scale-up规模稳定在72个GPU/机柜,形成可复制标准化方案。NVL72由18个ComputeTray(计算托架)和9个SwitchTray(网络交换托架)构成。其中,ComputeTray是计算核心单元,负责提供强大的计算能力;SwitchTray是高速通信枢纽,用于实现GPU之间的高速数据交换。NVL72背板通过“NVLink5私有协议+铜线缆”将

18个ComputeTray中的72颗B200GPU和9个SwitchTray中的18颗NVSwitch芯片进行满带宽全连接。

lRubin架构推动Scaleup方案带宽倍增。2026年1月CES展会,英伟达发布Rubin架构VR200NVL72。其中NVLink6Switch实现单GPU的互连带宽提升至3.6TB/s,上代为1.8TB/s。Scaleout方面,

Spectrum-6交换机支持CPO(共封装光学)技术,将32个1.6Tb/s硅光光学引擎与交换芯片直接封装集成。

在超节点方案上,英伟达处于领先优势。2024-2025年,英伟达陆续推出GH200NVL72、GB200/GB300NVL72等成熟超节点解决方案。根据大摩预测,2025年英伟达GB200/300NVL72出货量约2800台。展望2026-2027年,英伟达计划推出VeraRubinNVL144和RubinUltraNVL576。互联GPU数将从72颗进一步向576颗发展。届时,英伟达将在新一代Kyber机架架构中引入NVLinkSwitchBlade(NVLink交换机刀片),通过PCB中板替代传统5000+根有源铜缆。可以看到,RubinUltraNVL576仍具有较强的工程创新能力。

英伟达超节点的优势建立在NVLink和NVLinkSwitch。为实现AI训练集群高带宽与低延迟数据传输,

NVLink重新设计通信架构,并引入一系列先进技术,包括网状拓扑、差分信号传输、流量调度信用机制、多Lane绑定技术、统一内存空间等。截止2025年,NVLink5Switch实现支持单GPU到GPU带宽1800GB/s,可构建72GPU的NVLink域,总带宽达130TB/s(双向),支持72GPU全互联通信。在后续计划中,

NVSwitchGen6和Gen7的GPU-to-GPU通信带宽继续升级为3.6TB/s。

超节点与Scaleup网络专题之英伟达:行业标杆,领先优势建立在NVLink和NVLinkSwitch

行业研究

看好/维持

通信

行业报告

2026年2月5日

东方财智兴盛之源

但另一方面,Scaleup网络兴起源于满足大模型分布式训练和推理中的张量并行(TP)与专家并行(EP)。目前AI产业也在探索降低TP与EP规模的技术方案,从而降低Scaleup网络规模的上限。我们认为,Scaleup网络的发展空间或限制英伟达在超节点领域的领先优势。为保持领先优势,实现Scaleup网络和Scaleout网络融合或将成为英伟达超节点新的发展趋势。

投资策略:

自2025年开始,超节点成为AI算力网络重要的技术创新方向。从AI基建竞争维度,AI芯片厂商从芯片算力性

文档评论(0)

1亿VIP精品文档

相关文档