英伟达推出Blackwell架构,新一代AI芯片和硬件设备全面升级.pdfVIP

英伟达推出Blackwell架构,新一代AI芯片和硬件设备全面升级.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

[Table_PageText]

跟踪分析|计算机

一、英伟达推出Blackwell架构,新一代AI芯片和硬

件设备全面升级

英伟达基于Blackwell架构的AI芯片及相关硬件设备从芯片性能到整体算力集群性

能提升明显。2024年3月18日,英伟达在GTC大会上推出了基于Blackwell架构的AI

芯片及相关硬件设备。相较于上一代Hopper架构的产品,Blackwell芯片和硬件设备

不仅提升了单个芯片的计算性能,还通过提升网络通信速度、优化软件生态等方式,

加强了大规模AI算力集群的算力,从而全面提升对于AI大模型的加速效果。此次

Blackwell芯片和硬件设备有以下6个方面的技术创新:

(1)制造工艺提升推动芯片内含晶体管数量增长:Blackwell架构的GPU采用4NP工

艺将两个GPU裸片以10TB每秒通信速率融合在一个芯片中,从而使得晶体管数量

达到了2080亿个。

(2)内嵌第二代Transformer引擎提升对于Transformer模型的加速效果:

Blackwell芯片中嵌入的第二代Transformer引擎引入了micro-tensor技术,融合了精

度范围动态管理算法,提升了对于不同参数规模的Transformer模型的加速效果。

(3)升级到第5代NVLink技术进一步提升集群通信连接速率:第五代NVLink将GPU

卡间连接速率提升到1.8TB/S,可以支持最多576张GPU的高速互联,为AI大模型高

密度、大规模训练提供有力的AI算力支持。

(4)内嵌RAS引擎,保障大规模、长时间AI训练的稳定性:针对AI大模型训练时间

较长的特点,Blackwell架构的芯片内嵌的RAS引擎可自动预测、检测并通过智能化

预防措施处理在训练过程中可能出现的问题,从而保障数周甚至数月的长时间AI模

型训练。

(5)通过嵌入加密协议,保障数据安全:Blackwell芯片引入的原生界面加密协议,

使得计算过程中隐私数据得到很好的保护,从而为AI模型和用户隐私安全提供有效

保障。

(6)引入解压引擎,支持各类数据类型的处理。解压引擎可以有效支持当前最新的

数据格式的处理、查询和分析,为大数据处理和数据科学场景提供有力支持。

从英伟达此次技术和产品迭代的方向,我们看到未来支持AI大模型的开发和应用不

仅仅取决于AI芯片单位计算单元性能,还在于融合了大量的AI服务器、高速网络连

接设备以及算力调度优化软件的AI计算集群整体性能。接下来,我们从芯片、服务

器、通信网络连接设备、算力集群各层次,详细介绍和分析英伟达Blackwell芯片和

相关硬件产品性能提升方式和效果。

识别风险,发现价值

您可能关注的文档

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档