- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
黄仁勋:AI超级芯片平台Rubin全面投产
一、CES2026突发发布:打破传统节奏,Rubin抢滩AI推理时代
2026年1月5日(当地时间),拉斯维加斯CES2026展会现场,英伟达CEO黄仁勋的90分钟主题演讲,成为全球AI产业的“新年惊雷”——这家通常在每年3月GTC大会上发布新一代架构的芯片巨头,出乎意料地提前推出了下一代AI超级芯片平台“Rubin”,并正式宣布其“全面投产”。这一打破常规的动作,背后是AI竞赛的核心逻辑切换:当AI从“训练时代”进入“推理时代”,算力的需求不再局限于模型训练的“量”,更指向推理效率的“质”与成本的“降”。
Rubin的命名,承载着英伟达对“科技与人文共生”的致敬——它以美国先驱天文学家薇拉·弗洛伦斯·库珀·鲁宾(VeraFlorenceCooperRubin)命名。这位被誉为“暗物质之母”的科学家,通过观测星系旋转曲线证明了暗物质的存在,彻底改变了人类对宇宙的认知。黄仁勋将新一代芯片平台冠以其名,既是对科学探索精神的传承,更暗示Rubin将像鲁宾的研究一样,“重新定义AI算力的边界”。
事实上,Rubin并非“空降”。早在2025年3月的GTC大会上,黄仁勋就已预告代号“VeraRubin”的超级芯片,并明确其“2026年量产”的时间表;2025年11月,他在台积电运动会上进一步透露,RubinGPU已进入生产线并获得HBM4样品。此次CES上的“系统性发布”,是英伟达对AI产业趋势的快速响应:当OpenAI、Anthropic等模型公司的推理需求爆发式增长,当云厂商需要更高效的算力支撑AI服务规模化,Rubin的“提前登场”,本质是英伟达对“AI推理时代算力缺口”的精准补位。
二、极致协同设计:六芯片整合构建“算力巨兽”,性能与成本双突破
Rubin的核心竞争力,在于“极端协同设计”——它不是单颗芯片的升级,而是整合了6颗全新芯片的“AI超级计算机”:NVIDIAVeraCPU(通用计算核心)、RubinGPU(AI算力核心)、NVLink6交换芯片(高速互连)、ConnectX-9SuperNIC(超级网络接口卡)、BlueField-4DPU(数据处理单元)、Spectrum-6以太网交换芯片(网络优化)。这种从“计算-网络-存储-安全”全链路的协同,让Rubin的性能突破不再依赖“单一芯片的堆料”,而是“系统级的效率提升”。
核心性能:训练推理双提速,算力瓶颈再突破
根据英伟达公布的数据,Rubin平台的性能提升远超上一代Blackwell:
推理性能:RubinGPU搭载第三代Transformer引擎,NVFP4推理算力达到50PFLOPS,是Blackwell的5倍;
训练性能:训练混合专家(MoE)模型的速度较Blackwell提升3.5倍,所需GPU数量减少至原来的1/4(即减少75%);
内存带宽:采用HBM4高带宽显存,带宽达到22TB/s,是Blackwell所使用HBM3e的2.8倍,彻底解决AI模型“算力强、内存慢”的瓶颈;
晶体管规模:RubinGPU的晶体管数量达到3360亿个,是Blackwell的1.6倍,为复杂AI算法提供了更充足的“计算单元”。
成本革命:推理token成本最高降90%,AI规模化的关键一步
对AI产业而言,“性能提升”之外,“成本降低”是更现实的痛点。Rubin的另一大突破,是将推理阶段的Token生成成本最高降低90%——Token是AI模型处理文本、图像等数据的基本单位(比如ChatGPT生成100字约需100个Token),成本的大幅下降,意味着AI应用的“使用门槛”将被彻底拉低:未来,企业部署AI客服、个人使用AI创作工具的成本,可能仅为当前的1/10。
黄仁勋在演讲中强调:“AI的普及不是靠‘更贵的算力’,而是‘更便宜的算力’。Rubin让每个企业、每个开发者都能用上‘买得起的超级算力’。”
五大技术创新:支撑AI向更高阶演进
Rubin的“协同设计”背后,是五大核心技术的突破:
NVLink6互连:实现芯片间的高速通信,带宽较上一代提升50%,让6颗芯片像“一台机器”一样协同工作;
机密计算:通过硬件级加密,保护AI模型训练与推理中的数据隐私,解决企业对“AI数据安全”的顾虑;
RAS引擎(可靠性、可用性与可维护性):针对超大规模AI集群设计,降低硬件故障对训练任务的影响,提升系统稳定性;
VeraCPU:搭载88个核心的新一代通用处理器,与RubinGPU协同处理“AI+通用计算”混合任务,避免“GPU空闲、CPU瓶颈”的问题;
Transformer引擎优化:针对大语言模型(LLM)、多模态模型的推理需求,优化矩阵运算与内存访问,让“代理式AI”(能自主完成复杂任务的AI
原创力文档


文档评论(0)