- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
AIGC行业市场分析
ChatGPT开启大模型“军备赛”,存储作为计算机重要组成部分明显
受益:ChatGPT开启算力军备赛,大模型参数现指数规模,引爆海
量算力需求,模型计算量增长速度远超人工智能硬件算力增长速度,
同时也对数据传输速度提出了更高的要求。XPU、内存、硬盘组成完
整的冯诺依曼体系,以一台通用服务器为例,芯片组+存储的成本约
占70%以上,芯片组、内部存储和外部存储是组成核心部件;存储
是计算机的重要组成结构,“内存”实为硬盘与CPU之间的中间人,
存储可按照介质分类为ROM和RAM两的分。
存算一体,后摩尔时代的必然发展:过去二十年中,算力发展速度远
超存储,存“储墙”成为加速学习时代下的一代挑战,原因是在后摩尔
时代,存储带宽制约了计算系统的有效带宽,芯片算力增长步履维艰。
因此存算一体有望打破冯诺依曼架构,是后摩时代卜的必然选择,存
算一体即数据存储与计算融合在同一个芯片的同一片区之中,极其适
用于大数据量大规模并行的应用场景。存算一体优势显著,被誉为
AI芯片的全“能战士”,具有高能耗、低成本、高算力等优势;存算一
体按照计算方式分为数字计算和模拟计算,应用场景较为广泛,
SRAM、RRAM有望成为云端存算-一体主流介质。
存算一体前景广阔、渐入佳境:存算一体需求旺盛,有望推动下一阶
段的人工智能发展,原因是我们认为现在存算一体主要AI的算力需
求、并行计算、神经网络计算等;大模型兴起,存算一体适用于从云
至端各类计算,端测方面,人工智能更在意及时响应,即输“入”即输“
出”,目前存算一体已经可以完成高精度计算;云端方面,随着大模
型的横空出世,参数方面已经达到上亿级别,存算一体有望成为新一
代算力因素;存算一体适用于人工智能各个场景,如穿戴设备、移动
终端、智能驾驶、数据中心等。我们认为存算一体为下一代技术趋势
并有望广泛应用于人工智能神经网络相关应用、感存算一体,多模态
的人工智能计算、类脑计算等场景。
01、存算一体,开启算力新篇章
1.1、ChatGPT开启大模型“军备赛”,算力呈现明显缺口
ChatGPT开启算力军备赛:们已经在《ChatGPT:百度文心一言畅
想》中证明数据、平台、算力是打造大模型生态的必备基础,且算力
是训练大模型的底层动力源泉,一个优秀的算力底座在大模型A(I算
法)的训练和推理具备效率优势;同时,们在《ChatGPT打响AI
算力“军备战”》中证明算力是AI技术角逐入“场券”,其中AI服务器、
AI芯片等为核心产品;此外,们还在《ChatGPT,英伟达DGX
引爆AI核“聚变”》中证明以英伟达为代表的科技公司正在快速补足全
球AI算力需求,为大模型增添必备燃“料”。
大模型参数呈现指数规模,引爆海量算力需求:根据财联社和OpenAl
数据,ChatGPT浪潮下算力缺口巨大,根据OpenAI数据,模型计
算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算
规模的增长,带动了对AI训练芯片单点算力提升的需求,并对数据
传输速度提出了更高的要求。根据统计,过去五年,大模型发展呈现
指数级别,部分大模型已达万亿级别,因此对算力需求也随之攀升。
1.2.深度拆解服务器核心硬件组成部分
服务器的组成:们以一台通用服务器为例,服务器主要由主板、内
存、芯片组、磁盘、网卡、显卡、电源、主机箱等硬件设备组成;其
中芯片组、内部存储和外部存储是组成核心部件。GPU服务器优势
显著:GPU服务器超强的计算功能可应用于海量数据处理方面的运算,
如搜索、大数据推荐、智能输入法等,相较于通用服务器,在数据量
和计算量方面具有成倍的效率优势。此外,GPU可作为深度学习的
训练平台,优势在于1、GPU服务器可直接加速计算服务,亦可直
接与外界连接通信;2、GPU服务器和云服务器搭配使用,云服务器
为主,GPU服务器负责提供计算平台;3
文档评论(0)