- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
目录
强人工智能时代的算力产业机会3
人工智能产业的机遇及挑战6
ChatGPT的前世、今生及未来8
引爆的智能机器人应用市场10
科大讯飞基本面更新11
中科创达基本面更新15
四维图新基本面更新19
易华录基本面更新24
千方科技基本面更新25
美亚柏科基本面更新28
宇信科技基本面更新33
数字政通基本面更新35
彩讯股份基本面更新39
海天瑞声基本面更新40
格灵深瞳基本面更新43
当虹科技基本面更新45
光庭信息基本面更新48
鸿泉物联基本面更新53
强人工智能时代的算力产业机会
国内主要能看到的芯片有:1)英伟达上一代的V100,也是当初OpenAI训练ChatGPT使用的主流芯片;2)
A100,这也是英伟达目前在国内主要销售的一款芯片,也是现在ChatGPT训练的主要平台;3)H100是英伟
达在去年年底发布的,计划在今年下半年开始在国内很多地方布署,目前在国外的一些厂家也能看到H100;
4)AMDMI250X:是AMD主打的一款芯片,可以用于高性能计算,也可以用于AI,但是这款新品有一个问题
就是AMD不向中国出售,而且它也在美国商务部的一个限制名单中,所以MI250X在短时间内在中国是见不
到的,除非AMD有计划去改变;5)IntelHabana;6)IntelXeon HBM:Intel专门针对未来人工智能的训
练,推出了一款至强的HBM芯片;7)推理芯片A30和A2是英伟达推理芯片的两个极端,但是从指标上看,
A30在某种程度上也可以承担一部分AI的训练任务。因为美国的限制,英伟达推出了一款新的产品,叫做
A800。针对H100,英伟达也有对应的中国版型号叫做H800,最主要的核心变化就是在CPU与CPU之间的带
宽上,A100到A800 降到了400G,H100到H800降到了450G,这就是英伟达目前向中国销售的两款产品。
2021年,国内数据中心加速卡市场,Nvidia 占有88.8%市场份额, Huawei 占有8.8%市场份额,另外还有
一些其他的厂家,大概占有剩下的1%-2%,是个高度集中的市场。华为2022年出货量有一定下降,因为2022
年整体的经济形势不好,尤其像云厂商受到的冲击比较大,所以2022年整体市场出货量都有一定下降,但
是英伟达的市场份额没有大的变化,基本的格局维持不变。
预计2023-2024年,市场出货量会有一个比较高速的增长,原因是:2022年很多互联网厂商因为自身的业
务问题,压缩2022年的业务和芯片需求,需求全部转到2023年;而且2023年面临着产品从原来的A100
要升级到H800的变化,2023年有常规业务循环周期的要求,也要开始去做有关大模型的储备,所以互联网
厂商在2023年的芯片需求会有一个比较大的增长。国内的很多互联网厂家的AI算力基本上满足于日常国
内AI 用户的需求,没有针对大模型这种需求去做很多的储备,所以很多厂家现在的算力资源不足,那么在
2023年考虑到要提前去做一些预演和尝试,2023年会有一个小规模,也可能是比较大规模的布署;2024年
会有一个比较爆发的增长。2024年,国内大模型可能会有TO-C端和To-B业务,很多To-B端会看到大模型
的业务,所以在2024年会有一个高速增长,但是到后两年会进入一个常规性的增长状态,就比如说小规模
的更新换代,一些新平台的引入,所以到后几年会呈现一个正常的增长幅度。
大模型之所以会对AI 芯片提出这么高的要求,是因为大模型训练规模增大,数据量增大,训练成本、消耗
的设备资源增长成一种线性的增长。人工智能往大模型方向发展带来三个比较大的变化,就是大数据、大
算力、强算法,这三个变化形成了大模型的一个基本入门门槛,如果说能解决这三个,或者解决核心的两
个,厂家可以进入到大模型的业务当中。ChatGPT使用 1万片A100或A800,完整的训练一次是14天,这
个时间不算短;推理对于设备的要求是呈现一个爆发式的增长,因为随着用户访问量的增加,对于推理的
设备要求量会越来越大,推理的算力并不高,但训练好的模型大约400G,这是一个模型的尺寸,要把这个
模型装下,最少要用五片A100 (因为一片A100板上面有80G 内存),所以传统的一台英伟达DGX,基本上
满足一个用户访问请求的需求,它的生成速度大概是每秒钟可以生成15到20个词,基本上占用了一台英
伟达DGX一秒钟的资
原创力文档


文档评论(0)