- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
2024年很有可能成为AI芯片的元年。
有预测称,今年AI芯片可能会迎来强劲甚至迅猛的增长。然而,一个令人关注的问题是,这种上升趋势能够持续多久呢?
2023年底,AMD大胆地宣称,到2027年,数据中心AI芯片的总潜在市场(TAM)将达到4000亿美元,复合年增长率(CAGR)超过70%。这一预测引起了不同的反应,但也从侧面说明了大型语言模型(LLM)作为处理生成式人工智能(GenAI)应用核心的驱动力。
作为图形处理单元(GPU)市场的领导者,英伟达的成功证明了这些芯片的潜在市场规模。英伟达过去一年的股价上涨了217%,在过去三年增长了140%。
在最新的11月财报中,英伟达公布的营收为181.2亿美元,其中数据中心营收为145.1亿美元。整体销售额同比增长206%,而数据中心销售额同期增长了279%。所有这些都证实了数据中心芯片的销售正经历急剧上升的趋势。然而,关键问题是,这个增长趋势是否能够达到4000亿美元的高度。
英伟达在数据中心AIGPU市场至少占据80%的份额,未来三年预计将迎来巨大增长。然而,要实现高达4000亿美元的市场规模,英伟达的表现需要比目前更出色,同时其他厂商也需要超出预期。
竞争者不甘示弱
AMD
AMD认为其将在未来三年内实现大幅增长。2023年12月,AMD发布了MI300系列芯片,旨在在推理方面超越英伟达的GPU。同时发布的另一款产品AMDInstinctMI300A加速处理单元(APU),将CPU和GPU核心与内存集成在一个平台中。
MI300X专为云提供商和企业设计,专为生成式AI应用而打造,MI300XGPU拥有超过1500亿个晶体管,以2.4倍的内存超越了英伟达的H100。峰值内存带宽达到5.3TB/s,是H1003.3TB/s的1.6倍。
AMDInstinctMI300AAPU配备128GBHBM3内存。据称,与之前的M250X处理器相比,MI300A在HPC和AI工作负载上的每瓦性能提高了1.9倍。?
AMD总裁兼首席执行官苏姿丰(LisaSu)在去年10月的公司第三季度电话会议上表示:“随着2024年的到来,我们预计收入将持续增长,而且主要来源将是AI。”“在AI领域,我们的客户覆盖面很广,包括从超大规模企业到原始设备制造商、企业客户以及一些新的人工智能初创企业。从工作负载的角度来看,我们希望MI300能够同时处理训练和推理工作负载。”
英特尔
英特尔上个月推出了AI芯片Gaudi3以及第五代Xeon处理器,作为进一步进军数据中心AI市场的一部分。?
英特尔表示,Gaudi3是专为深度学习和创建大规模生成人工智能模型而设计的下一代人工智能加速器,将与英伟达的H100和AMD的MI300X展开竞争。
英特尔声称Xeon是唯一内置AI加速的主流数据中心处理器,全新第五代Xeon在多达200亿个参数的模型上提供高达42%的推理和微调能力。它也是唯一一款具有一致且不断改进的MLPerf训练和推理基准测试结果的CPU。
Xeon的内置人工智能加速器,加上优化的软件和增强的遥测功能,可以为通信服务提供商、内容交付网络和包括零售、医疗保健和制造在内的广泛垂直市场实现更易于管理、更高效的高要求网络和边缘工作负载部署。
云厂商各显神通
AWS、谷歌等云厂商一直在为自己的大型数据中心打造定制芯片。一方面是不想过度依赖英伟达,另外针对自身需求定制芯片也有助于提高性能和降低成本。
AWS
亚马逊的AI芯片Trainium和Inferentia专为训练和运行大型人工智能模型而设计。
AWSTrainium2是AWS专门为超过1000亿个参数模型的深度学习训练打造的第二代机器学习(ML)加速器。AWSCEOAdamSelipsky表示,近期推出的Trainium2的速度是其前身的4倍,能源效率是其之前的2倍。Tranium2将在AWS云中由16个芯片组成的集群中的ECTrn2实例中使用,在AWS的EC2UltraCluster产品中可扩展到多达10万个芯片。AWS表示,10万个Trainium芯片可提供65exaflops的计算能力,相当于每个芯片可提供650teraflops的计算能力。
AWSInferentia2加速器与第一代相比在性能和功能方面实现了重大飞跃。Inferentia2的吞吐量提高了4倍,延迟低至1/10。
AWSInferentia2支持多种数据类型,包括FP32、TF32、BF16、FP16和UINT8,还支持新的可配置FP8(cFP8)
文档评论(0)