ASI从云端降临终端 放大新智产业链规模效应.pptxVIP

ASI从云端降临终端 放大新智产业链规模效应.pptx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

ASI从云端降临终端放大新智产业链规模效应

新智元创始人杨静

目录

2024全球人工智能产业链洞察

ASI放大新智产业链规模效应

从云端降临终端,走向ASI新天地

2024全球人工智能产业链洞察

2024全球人工智能产业链洞察

ScalingLawsMooreslaw LLM的能力提升大部分来自于算力,而摩尔定律代表着硬件算力的发展

MIT的研究报告发现——LLM的性能大约每8个月就会翻一倍,速度远超摩尔定律(两年翻一倍)

2024全球人工智能产业链洞察

GeminiUltra的开发成本估计为1.91亿美元,GPT-4的开发成本估计为7800万美元

5年来排名前15的企业(大学)研发了近150个基础大模型,按平均1亿美元的开发训练成本计算,投入已超过150亿美元

2024全球人工智能产业链洞察

星际之门:微软和OpenAI将耗资1000亿美元,2028年推出AI超算Stargate

马斯克训练Grok-2用了2万块英伟达H100

,而Grok-3及其后续版本的AI模型将需要多达10万块的同型号芯片

马斯克旗下xAI2025年将投入近100亿美元购买30万块B200。这个革命性的超算中心算力相当于60万块H100

Meta将在2024年购买约35万块H100,届时Meta将拥有近60万GPU储备

万亿美元—万卡级登月竞赛

大模型大玩家——微软+Meta两大巨头和10家万卡追随者

全球2023年军事支出创10多年来最大涨幅

,创2.4兆美元空前新高

1.美国 9160亿美元 2.中国2960亿 美

3.俄罗斯1090亿美元 4.印度 836亿 美

阿波罗登月计划1961-1972约11年,总成本为250亿美元,换算成现在的金额为1500亿美元

美国冲击AGI成本至少超1万亿美元

ASI宇宙

算力

能源

大模型即系统生态

资金

人才

投入

2029,奇点临近?——ASI登月竞赛的时间线

马斯克:xAI目标6年内实现AGI,

2029年或2030年,数字智能可能超过所有人类智能的总和

黄仁勋:能通过人类测试的计算机,5年内实现。更高则更难

奥特曼:4-5年

DeepMind创始人DemisHassabis

一个具有普遍能力的系统,能够完成人类所能做的几乎所有的认知任务,2030年实现

扎克伯格:能源将成为瓶颈,AGI最终实现可能需要几十年时间

2030年,全球数据中心的用电量将超过全球人口最多的国家印度

24年6月20日,排名前6的美国科技公司总市值超15万亿美元,而排名前20的中国大陆科技公司总市值不到1.4万亿美元(Top3市值≈中国A股总市值)

从AGI到ASI,指数级加速

地球从AGI向ASI进化,所有财富和资源配置将指数级加速流向头部垄断生态群

,低维生态将被快速抽干,片甲不留直至清0。

自ChatGPT推出以来,英伟达的市值已增长8倍,达到3.2万亿美元,并在6月5日一度超越苹果,成为全球第二大市值公司。

ASI——万众臣服GPU铁王座

ASI星球大战的产业链集聚效应

Sora横空出世:大模型向多模态横跳,算力和数据需求指数级剧增

约需72万块英伟达H100才能大规模运行类似Sora的模型,这意味着人工智能生成的视频已经在TikTok和YouTube等流行视频平台上实现显著的市场渗透

中金公司测算:训练侧来看,Sora的算力成本理论计算值约为GPT-4的10倍,推理侧来看,Sora的算力成本理论计算值高达约GPT-4的2000倍

GPT-4训练用了2.5万块A100

如果平台大规模运行类似Sora的模型

,可能需要大约70万块H100。预估费用超过210亿美元

天文数字的合成数据将成为未来大模型训练的核动力

若基于现实世界数据训练,Sora使用的数据量可能多达每分钟百万token级别

微软可能给OpenAI提供了5000亿视频用于Sora训练。Sora的API接口开放后,将有更多海量数据涌入,又有更多视频生成

天文数字的合成数据将成为未来大模型训练的核动力

根据Gartner的预测,2024年用于训练大模型的数据中有60%将是合成数据

到2030年大模型使用的绝大部分数据将由人工智能合成

最优异的大模型能合成最高质量的训练用数据

届时超人类智能使用的数据将由AGI自我合成

OpenAI的GPT-5面临10万亿到20万亿tokens的数据短缺

Epoch研究所的AI研究员PabloVillalobos估计,GPT-4训练涉及的数据量高达12万亿tokens,而未来模型,如GPT-5,可能需要60万亿到100万亿tokens

OpenAI目前每天能创造出约1000亿字的内容,而全世界的人类每天总共能产生约100万亿

文档评论(0)

优选文档 + 关注
实名认证
文档贡献者

专注于发布优质文档,喜欢的可以关注一下哦~

1亿VIP精品文档

相关文档