- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
ASI从云端降临终端放大新智产业链规模效应
新智元创始人杨静
目录
2024全球人工智能产业链洞察
ASI放大新智产业链规模效应
从云端降临终端,走向ASI新天地
2024全球人工智能产业链洞察
2024全球人工智能产业链洞察
ScalingLawsMooreslaw LLM的能力提升大部分来自于算力,而摩尔定律代表着硬件算力的发展
MIT的研究报告发现——LLM的性能大约每8个月就会翻一倍,速度远超摩尔定律(两年翻一倍)
2024全球人工智能产业链洞察
GeminiUltra的开发成本估计为1.91亿美元,GPT-4的开发成本估计为7800万美元
5年来排名前15的企业(大学)研发了近150个基础大模型,按平均1亿美元的开发训练成本计算,投入已超过150亿美元
2024全球人工智能产业链洞察
星际之门:微软和OpenAI将耗资1000亿美元,2028年推出AI超算Stargate
马斯克训练Grok-2用了2万块英伟达H100
,而Grok-3及其后续版本的AI模型将需要多达10万块的同型号芯片
马斯克旗下xAI2025年将投入近100亿美元购买30万块B200。这个革命性的超算中心算力相当于60万块H100
Meta将在2024年购买约35万块H100,届时Meta将拥有近60万GPU储备
万亿美元—万卡级登月竞赛
大模型大玩家——微软+Meta两大巨头和10家万卡追随者
全球2023年军事支出创10多年来最大涨幅
,创2.4兆美元空前新高
元
1.美国 9160亿美元 2.中国2960亿 美
3.俄罗斯1090亿美元 4.印度 836亿 美
元
阿波罗登月计划1961-1972约11年,总成本为250亿美元,换算成现在的金额为1500亿美元
美国冲击AGI成本至少超1万亿美元
ASI宇宙
算力
能源
大模型即系统生态
资金
人才
投入
2029,奇点临近?——ASI登月竞赛的时间线
马斯克:xAI目标6年内实现AGI,
2029年或2030年,数字智能可能超过所有人类智能的总和
黄仁勋:能通过人类测试的计算机,5年内实现。更高则更难
奥特曼:4-5年
DeepMind创始人DemisHassabis
一个具有普遍能力的系统,能够完成人类所能做的几乎所有的认知任务,2030年实现
扎克伯格:能源将成为瓶颈,AGI最终实现可能需要几十年时间
2030年,全球数据中心的用电量将超过全球人口最多的国家印度
24年6月20日,排名前6的美国科技公司总市值超15万亿美元,而排名前20的中国大陆科技公司总市值不到1.4万亿美元(Top3市值≈中国A股总市值)
从AGI到ASI,指数级加速
地球从AGI向ASI进化,所有财富和资源配置将指数级加速流向头部垄断生态群
,低维生态将被快速抽干,片甲不留直至清0。
自ChatGPT推出以来,英伟达的市值已增长8倍,达到3.2万亿美元,并在6月5日一度超越苹果,成为全球第二大市值公司。
ASI——万众臣服GPU铁王座
ASI星球大战的产业链集聚效应
Sora横空出世:大模型向多模态横跳,算力和数据需求指数级剧增
约需72万块英伟达H100才能大规模运行类似Sora的模型,这意味着人工智能生成的视频已经在TikTok和YouTube等流行视频平台上实现显著的市场渗透
中金公司测算:训练侧来看,Sora的算力成本理论计算值约为GPT-4的10倍,推理侧来看,Sora的算力成本理论计算值高达约GPT-4的2000倍
GPT-4训练用了2.5万块A100
如果平台大规模运行类似Sora的模型
,可能需要大约70万块H100。预估费用超过210亿美元
天文数字的合成数据将成为未来大模型训练的核动力
若基于现实世界数据训练,Sora使用的数据量可能多达每分钟百万token级别
微软可能给OpenAI提供了5000亿视频用于Sora训练。Sora的API接口开放后,将有更多海量数据涌入,又有更多视频生成
天文数字的合成数据将成为未来大模型训练的核动力
根据Gartner的预测,2024年用于训练大模型的数据中有60%将是合成数据
到2030年大模型使用的绝大部分数据将由人工智能合成
最优异的大模型能合成最高质量的训练用数据
届时超人类智能使用的数据将由AGI自我合成
OpenAI的GPT-5面临10万亿到20万亿tokens的数据短缺
Epoch研究所的AI研究员PabloVillalobos估计,GPT-4训练涉及的数据量高达12万亿tokens,而未来模型,如GPT-5,可能需要60万亿到100万亿tokens
OpenAI目前每天能创造出约1000亿字的内容,而全世界的人类每天总共能产生约100万亿
最近下载
- 杜邦安全训练观察计划STOP经典课程培训教材.docx VIP
- 特种设备检验检测院报检申请表.doc
- 金丽衢十二校2025学年2026届高三第一次联考英语试卷(含标准答案).pdf
- 高速平安百年品质工程建设探索与实践汇报材料.pptx
- 第六课 推动形成全面对外开放新局面(教案)-【中职专用】2024-2025学年中职思想政治《中国特色社会主义》.docx VIP
- 医院医疗废物监测制度.docx VIP
- TS-YZ-104-02自动灯检机确认方案.doc VIP
- 2025年新教科版四上科学全册知识点含实验和问答梳理.pdf
- 标准图集-华北-12D9 室外电缆工程.pdf VIP
- (高清版)DB33∕T 1147-2018 建筑防水工程技术规程 .pdf VIP
原创力文档


文档评论(0)