电子行业算力专题研究二:从训练到推理,算力芯片需求的华丽转身.docxVIP

电子行业算力专题研究二:从训练到推理,算力芯片需求的华丽转身.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

正文目录

如何测算文本大模型AI推理端算力需求? 3

ScalingLaws长文本趋势:推理需求的核心驱动力 4

关于模型参数量:ScalingLaws仍为核心 4

关于数据规模(tokens):长文本趋势已确立 5

文本大模型云端AI推理对GPU的需求量如何求解? 8

风险提示 10

图表目录

图表1:英伟达FY2024数据中心推理与训练占比 3

图表2:中国人工智能服务器负载及预测 3

图表3:文本大模型云端AI推理算力供给需求公式 3

图表4:云端AI推理需求公式拆解 4

图表5:大模型训练的ScalingLaw 4

图表6:海外主流AI大模型训练侧算力供给需求情况 5

图表7:国内主流AI大模型训练侧算力供给需求情况 5

图表8:云端AI推理需求公式进一步拆解 5

图表9:文本大模型网站访问量周度数据(单位:万次) 6

图表10:文本大模型网站访问量周度数据(单位:万次) 6

图表11:图片大模型网站访问量周度数据(单位:万次) 6

图表12:视频大模型网站访问量周度数据(单位:万次) 6

图表13:OpenAIPlatformTokenizer 7

图表14:OpenAI云端AI推理算力需求-供给测算 9

如何测算文本大模型AI推理端算力需求?

我们在此前外发报告《如何测算文本大模型AI训练端算力需求?》中,对未来三年AI训练卡需求持乐观态度,经过测算,以英伟达Hopper/Blackwell/下一代GPU卡FP16算力衡量,我们认为2024-2026年全球文本大模型AI训练侧GPU需求量为271/592/1244万张。由此我们认为,推理侧算力对训练侧算力需求的承接不意味着训练需求的趋缓,而是为算力芯片行业贡献第二重驱动力。

推理算力市场已然兴起,24年AI推理需求成为焦点。据转引英伟达FY24Q4业绩会纪要,公司2024财年数据中心有40%的收入来自推理业务。放眼国内,IDC数据显示,我国23H1训练工作负载的服务器占比达到49.4%,预计全年的占比将达到58.7%。随着训练模型的完善与成熟,模型和应用产品逐步投入生产,推理端的人工智能服务器占比将随之攀升,预计到2027年,用于推理的工作负载将达到72.6%。

图表1:英伟达FY2024数据中心推理与训练占比 图表2:中国人工智能服务器负载及预测

来源:英伟达财报电话会议纪要,,

注:按销售收入口径

来源:IDC,《2023-2024中国人工智能计算力发展评估报告》,华福证券

研究所

如何量化推理算力需求?与训练算力相比,推理侧是否具备更大的发展潜力?我们出AI推理侧算力供给需求公式,并分类讨论公式中的核心参数变化趋势,以此给出我们的判断。需要说明的是,本文将视角聚焦于云端AI推理算力,端侧AI算力主要由本地设备自带的算力芯片承载。基于初步分析,我们认为核心需要解决的问题聚焦于需求侧——推理消耗的数据规模如何测算?而供给侧,GPU性能提升速度、算力利用率等,我们认为与AI训练大致无异。

图表3:文本大模型云端AI推理算力供给需求公式

来源:OpenAI《ScalingLawsforNeuralLanguageModels》,NVIDIAStanfordUniversityMicrosoftResearch《EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM》,新智元,CIBA新经济,思瀚产业研究院,极市平台,

ScalingLaws长文本趋势:推理需求的核心驱动力

根据OpenAI《ScalingLawsforNeuralLanguageModels》,并结合我们对于推理算力的理解,我们拆解出云端AI推理算力需求≈2×模型参数量×数据规模×峰值倍数。

图表4:云端AI推理需求公式拆解

来源:OpenAI《ScalingLawsforNeuralLanguageModels》,思瀚产业研究院,极市平台,

关于模型参数量:ScalingLaws仍为核心

我们在此前外发报告《如何测算文本大模型AI训练端算力需求?》中已详细介绍过ScalingLaw的基本原理及其对大模型参数量的影响,主要观点为:模型的最终性能主要与计算量、模型参数量和数据大小三者相关,而与模型的具体结构(层数/深度/宽度)基本无关。如下图所示,对于计算量、模型参数

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档