AI爆发,服务器模拟IC鹊起.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
服务器整机与芯片市场概览 全球算力规模保持高速稳定增长态势 根据国家数据资源调查报告数据,2021 年全球数据总产量 67 ZB,近三年平均增速超过 26%。根据中国信息通信研究院预测,2021 年全球计算设备算力总规模达 615 EFlops,增速达 44%,其中基础算力规模 (FP32)/智能算力规模(FP32)/超算算力规模( FP32)分别为 369/232/14 EFlops。结合华为 GIV 预测,2030 年人类将迎来 YB 数据时代,全球算力规模将达 56 ZFlops,其中基础算力规模/智能算力规模/超算算力规模将分别达 3.3/52.5/0.2 ZFlops,整体平均年增速达 65%。 算力需求驱动全球服务器市场持续增长 整机方面,2021 年全球服务器市场出货量和销售额分别为 1353.9 万台与 992.2 亿美元,同比增长 6.9%与 6.4%。芯片方面,服务器芯片市场长期被 x86 架构主导,英特尔与AMD 的市场份额分别为 81%与 16%,随着英特尔在服务器主导地位的削弱,AMD 市场份额仍将持续提升。此外,ARM 服务器芯片产品逐步崛起,英伟达、亚马逊、华为以及阿里等国内外巨头已经陆续推出自研 ARM 服务器CPU,助推 ARM 服务器市场份额的提升,预计到 2024 年将接近 10%,成为通用算力的重要补充力量。 图表1: 先进计算技术产业体系框架 中国信息通信研究院, 训练数据规模和模型复杂度提升,推动 AI 服务器需求快速增长 整机方面,据 IDC 统计数据,2021 年,全球 AI 服务器市场规模达 156亿美元,同比增长 39.1%,超过全球 AI 整体市场 (含硬件、软件及服务)增长率 22.5%,成为 AI 整体市场增长的驱动力量。芯片方面,传统芯片巨头加速完善 AI 芯片产品体系,不断推进全能力建设,抢占多样性算力生态主导权。英特尔发布新一代高性能深度学习 AI 训练处器Habana Gaudi2,运算速度是上一代的 2 倍。AMD 在完成赛灵思的收购后,计划在 CPU 中融入赛灵思的 FPGAAI 引擎。英伟达推全 新架构 GPU,采用台积电 4nm 工艺,集成 800 亿个晶体管,大幅提升了AI 计算速度。 IDC,浪潮官网,方正证券研究所图表2: 中国人工智能市场规模预测(百万美元) 图表3: 中国AI 服务器市场规模预 IDC,浪潮官网,方正证券研究所 IDC,浪潮官网,  服务器增长拉动相关模拟 IC 需求 模拟芯片主要包括电源管理芯片和信号链芯片。电源管理芯片是电子设备的电能供应心脏,负责电子设备所需的电能变换、分配、检测等管控功能;是电子设备中的关键器件,其性能优劣对电子产品的性能和可靠性有着直接影响,广泛应用于各类电子产品和设备中,是模拟芯片最大的细分市场之一。电源管理芯片可划分为 AC/DC(交流转直流)、DC/DC(直流转直流)、驱动 IC、保护芯片、LDO、负载开关、 PMIC 等。当前,电源管理芯片逐渐朝微型化、集成化、高效率、低功耗、数字化及智能化方向发展。 信号链芯片是连接真实世界和数字世界的桥梁,主要是处理、接收发送模拟信号,将光、磁场、温度、声音等信息转化为数字信号。信号链芯片可以进一步分为放大器、比较器、模数/数模转换器及各类接口产品。 服务器用电源管理 IC 发展趋势 迅速增长的 AI 市场和与日俱增的电源需求相辅相成 AI 综合了数学、计算统计、机器学习和预测分析等多种解决问题的方法,AI 系统通过基于计算机的“神经”网络来模仿人脑学习并解决问题。这种神经网络由并行处理器组成,能够运行复杂的学习任务并执行软件算法,如今的 AI 仍在改革计算架构以复制模仿人脑的神经网络。尽管在具有传统中央处理器(CPU)的服务器上也可以训练或开发通用模型,但大多数神经网络都需要自定义的内置硬件来进行训练。图形处理单元(GPU)和张量处理单元(TPU)是用于加速神经网络训练的常见加速器,可以处理重复性和密集型计算,却异常耗电。 例如,早期的 AI 市场主导者英伟达的 DGX-1 GPU 超级计算机内置 8个 Tesla P100 GPU,每个 GPU 算力达到 21.2 TeraFLOP,总共需要 3200W 的系统总功率;最新一代的 DGX-2 超级计算机则内置 16 个 Tesla V100 GPU,每个GPU 算力达到 2 petaFLOP,所需系统总功率 达到 10kW。因此,AI 市场将迅速增长以满足不断增长的电源需求。同时,随着终端流量地激增,高算力需求亦驱动 AI 服务器的增长,数据中心的电力需求不断增加,因此,服务器的出货量增长亦将持续拉动服务器用电源管理芯片的需求。 AI 服务器要求高能效、高密度

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档