新能源电池行业深度:AIDC高景气,UPS及BBU电池受益.docxVIP

新能源电池行业深度:AIDC高景气,UPS及BBU电池受益.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

行业研究报告请务必阅读正文之后的免责条款部分此报告仅供内部客户参考

行业研究报告

请务必阅读正文之后的免责条款部分

此报告仅供内部客户参考

内容目录

人工智能发展推动算力需求增长 5

AIDC高景气度,电源是重要部分 6

AI推动智算中心发展,机柜向功耗高密度化演进 6

智算中心面临能源接入挑战,电源系统成为关键 9

数据中心供配电系统:备用电源+UPS+BBU 10

备用电源:柴油发电机是主流 12

不间断电源系统:蓄电池是关键 13

电池备份单元:布局灵活、响应速度快 14

电池:预计20230年数据中心锂电出货达300GWh 15

UPS电池:锂进铅退 15

BBU:小圆柱锂电池为主,全极耳设计是方向 17

预计2030年数据中心锂电池出货达到300GWh 19

投资建议 19

风险提示 21

图表目录

图1:人类进入智能时代 5

图2:新兴业态带动算力需求增长 5

图3:中国智能算力规模及预测 6

图4:数据中心走向智算数据中心AIDC 7

图5:不同时代数据中心机柜的典型功率 8

图6:典型AI算力集群负载动态功耗曲线图 9

图7:全球数据中心及人工智能数据中心能耗预测,2022-2027 10

图8:数据中心供配电系统组成 12

图9:数据中心发电机组的性能要求 13

图10:UPS系统架构图 13

图11:英飞凌BBU路线图 14

图12:数据中心计划外停机的原因 15

图13:铅酸电池正负极充放电过程示意图 16

图14:典型阀控式铅酸电池的容量衰减情况 16

图15:磷酸铁锂电池内部构造示意图 16

图16:锂离子电池日历寿命情况 16

图17:BBU架构 17

图18:18650小圆柱电池结构 18

图19:2024-2030年全球数据中心储能锂电池出货量及预测(GWh) 19

表1:传统数据中心和智算数据中心的差异 7

表2:不同芯片架构对应参数表 8

表3:不同等级数据中心对电源的要求 10

表4:UPS和BBU对比 15

表5:蓄电池种类比较 17

行业研究报告请务必阅读正文之后的免责条款部分此报告仅供内部客户参考表6:2024年全极耳小圆柱新品 18

行业研究报告

请务必阅读正文之后的免责条款部分

此报告仅供内部客户参考

行业研究报告请务必阅读正文之后的免责条款部分此报告仅供内部客户参考

行业研究报告

请务必阅读正文之后的免责条款部分

此报告仅供内部客户参考

人工智能发展推动算力需求增长

人工智能快速发展:人工智能正快速发展和不断成熟,以ChatGPT和DeepSeek为

代表的生成式人工智能因其显著的进步和广泛的应用范围而引起各行各业极大的关注,其能够生成与人类语言非常相似的文本,生成高清图片,视频,影片,甚至编程,颠覆了大众对人工智能的传统认知,也正在改变人类的生活和各行业的发展。

资料来源:图1:人类进入智能时代

资料来源:

华为《AIDC白皮书》

大模型等AI技术对算力需求爆发式增长:AI大模型需要大算力,其训练时长与模

型的参数量、训练数据量成正比。根据《中国智算中心(AIDC)产业发展白皮书(2024年)》,端到端大模型的理论训练时间为8*T*P/(n*X),其中T为训练数据的token数量,P为模型参数量,n为AI硬件卡数,X为每块卡的有效算力。ChatGPT参数量为175B规模下,预训练数据量3.5万亿,使用8192张卡,训练的时长为49天。深度学习时代之

前,算力需求24个月翻倍。深度学习时代算力需求3-4个月翻倍,大模型时代的算力需

求每2个月翻倍。

资料来源:《图2:新兴业态带动算力需求增长

资料来源:《

中国智算中心(AIDC)产业发展白皮书(2024年)》

行业研究报告请务必阅读正文之后的免责条款部分此报告仅供内部客户参考大模型成本优化推动算力需求长期增长,预计中国智算规模增长率46.2%:DeepSeek模型通过混合专家系统(MoE)优化等创新方式,使得其在具有更强性能的同时,显著降低了训练和推理成本。根据杰文斯悖论,大模型成本优化在短期内可以显著降低训练

行业研究报告

请务必阅读正文之后的免责条款部分

此报告仅供内部客户参考

和推理的成本,长期来看,技术的降本会加速AI技术的发展和应用场景的扩展,因此会继续推动算力需求持续增长。根据浪潮信息和IDC联合发布的《中国人工智能计算力发展评估报告》,预计2025年中国智能算力规模将达到1037.3EFLOPS,预计到2028年将达到27819EFLOPS,2023-20

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档