黄仁勋称CPU将死,英伟达想靠GPU制霸,科技巨头们不答应.docxVIP

黄仁勋称CPU将死,英伟达想靠GPU制霸,科技巨头们不答应.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

黄仁勋称CPU将死,英伟达想靠GPU制霸,科技巨头们不答应

一、黄仁勋“CPU将死”论:加速计算浪潮下的行业宣言

2025年12月,英伟达CEO黄仁勋在公开活动中抛出“不确定CPU在未来智能时代是否还有存在必要性”的言论,犹如投入行业深潭的巨石,激起千层浪。这一表述看似激进,实则是英伟达长期倡导的“加速计算”理念的集中爆发,更是对当前AI大模型、自动驾驶、云计算等技术变革的直接回应。

(一)技术变革催生计算需求的结构性转变

过去十年,AI大模型的突破性进展彻底改变了计算需求的底层逻辑。从GPT-3到GPT-4,从StableDiffusion到MidJourney,大模型训练所需的算力呈指数级增长。以GPT-3为例,其训练需要约3.14×1023FLOPS(浮点运算次数),而传统CPU的单线程架构在处理这类“重复矩阵运算”时效率低下,难以满足时效性要求。相比之下,GPU凭借数千个并行计算核心,能同时处理海量数据,在深度学习训练中的效率是CPU的数十倍甚至上百倍。这种技术特性的差异,使得GPU逐渐从图形渲染的“配角”,跃升为AI时代的“算力核心”。

(二)英伟达的“甜蜜收获”:数据中心GPU收入暴涨的背后

市场数据最能反映趋势。英伟达2025财年财报显示,其数据中心端GPU收入从2023年的150亿美元飙升至1152亿美元,两年间增长近7倍。这一数字的背后,是全球云计算厂商(如亚马逊、微软)、AI科技公司(如OpenAI、Anthropic)对A100、H100、H200等英伟达GPU的疯狂采购。以H200为例,其搭载的HBM3e显存带宽达4.8TB/s,FP8精度下算力超700TOPS(万亿次运算/秒),专为大模型训练和推理优化。美国政府近期宣布允许英伟达向中国等地区“获准客户”销售H200,但要求抽取25%销售额分成,这一政策侧面印证了H200在全球AI算力市场的战略地位。

(三)黄仁勋的“言外之意”:从技术优势到生态霸权的野心

黄仁勋的“CPU将死”论并非单纯的技术判断,更隐含着英伟达对未来计算架构的主导诉求。自2006年推出CUDA并行计算平台以来,英伟达通过“硬件+软件+生态”的闭环策略,构建了难以逾越的技术壁垒。CUDA支持Python、C++等主流编程语言,开发者可直接调用GPU算力进行深度学习框架(如PyTorch、TensorFlow)的开发,全球超95%的AI模型训练基于CUDA生态完成。这种生态粘性,使得企业一旦选择英伟达GPU,便难以转向其他计算架构,从而形成“GPU依赖”。黄仁勋的言论,本质上是在为“GPU-centric(以GPU为中心)”的计算时代造势,试图将英伟达的技术优势转化为行业标准。

二、科技巨头的反击:CPU不可替代的核心价值与多元布局

黄仁勋的“CPU将死”论虽有技术合理性,却低估了CPU的核心价值与科技巨头的应对能力。从英特尔、AMD等传统CPU厂商,到谷歌、亚马逊、阿里等云计算巨头,再到摩尔线程等新兴GPU企业,一场围绕“计算架构主导权”的攻防战已全面打响。

(一)CPU的“不可替代性”:通用计算的“大脑”地位

在技术层面,CPU与GPU的分工本质是“控制”与“计算”的协同。CPU拥有强大的单线程性能(如英特尔酷睿i9的单核频率超5GHz)、成熟的x86/ARM指令集生态(支持Windows、Linux等操作系统及各类办公、工业软件),以及对系统资源的调度能力(管理内存、I/O、多任务处理)。即便是最先进的AI服务器,仍需CPU负责模型加载、任务分配、结果输出等核心控制逻辑。例如,在自动驾驶场景中,GPU负责实时处理摄像头、激光雷达的海量数据(每秒数百万帧图像),但决策指令(如刹车、转向)的最终输出,仍需CPU基于交通规则、优先级算法进行综合判断。这种“CPU调度+GPU加速”的异构计算模式,已成为当前数据中心的主流架构。

(二)传统CPU厂商的“加速”反击:从通用到专用的技术突围

面对GPU的冲击,英特尔、AMD等CPU巨头选择“以彼之道还施彼身”,加速布局加速计算产品。英特尔推出的Gaudi系列AI芯片,采用与GPU类似的并行计算架构,专为大模型训练优化;AMD则通过收购赛灵思强化FPGA(现场可编程门阵列)技术,推出MI300系列APU(加速处理器),集成CPU与GPU核心,实现“单芯片内的异构计算”。数据显示,2025年第三季度,英特尔Gaudi3在微软Azure云平台的算力占比已提升至15%,较2024年同期增长3倍。这些举措不仅削弱了英伟达的市场份额,更证明CPU厂商正从“通用计算”向“通用+专用”的混合模式转型。

(三)云计算与互联网巨头的“去英伟达化”:自研芯片打破生态垄断

为摆脱对英伟达GPU的依赖,谷歌、亚马逊、阿里等企业掀起“自研芯片潮”。谷歌TPU(张量处

文档评论(0)

level来福儿 + 关注
实名认证
文档贡献者

二级计算机、经济专业技术资格证持证人

好好学习

领域认证该用户于2025年09月05日上传了二级计算机、经济专业技术资格证

1亿VIP精品文档

相关文档