- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
DeepSeekV3/R1架构的
深度分析与深度思考
陈巍
2025.02
陈巍:DeepSeekV3/R1架构的深度分析与深度思考
报告人简介
陈巍博士领域:大模型+AI芯片
•陈巍博士,大模型+AI芯片专家,高级职称,中存算董
事长。国际计算机学会(ACM)、中国计算机学会
(CCF)专业会员,多个国际人工智能期刊审稿人。
•主要研究方向为大模型架构、稀疏量化压缩与部署加速,
存算一体与3DChiplet处理器,相关技术成果已被广泛
应用于知名IDC和互联网企业。
•曾任领域知名人工智能(自然语言处理)企业首席科学
家,中国科学院副主任(2012),多个国家科技重大专
项课题负责人。中国与美国发明专利软件著作权约70+
2024
项(约50+项发明专利已授权)。著有《Sora大模型技2022
术精要—原理、关键技术、模型架构与未来趋势》
《GPT-4大模型硬核解读》《DeepSeek是否有国运级
的创新?2万字解读与硬核分析DeepSeekV3/R1的架构》
等。
陈巍:DeepSeekV3/R1架构的深度分析与深度思考
大语言模型的本质
•知识,是指人类在实践中认识(计算)客观世界的成果
•大语言模型本质上是“对知识的压缩(存)+对输入的反馈(算)”
模型能力=模型大小x压缩倍数x反馈能力系数
or模型能力=(模型大小x压缩倍数+向量数据库大小)x反馈能力系数
•Knowledgeiscomputingpower(知识就是算力)缩放定律图示(来源:OpenAI)
•视频大模型的性能与其“知识”体量密切相关
本人2024年12月的公开预测:
•视频大模型参数量未来会达到主流文本大模型的1-3个数量级
•3年内日常生活算力需求至少提升1个数量级(提前实现?)
•拥有数据最多的企业将是具身智能机器人企业
在2022年5月,提前半年预测大模型的产业爆发
陈巍:DeepSeekV3/R1架构的深度分析与深度思考
1Scalinglaw与Mooreslaw的范式共生
2DeepSeek的架构提升与既要又要
3V3/R1训练架构与软硬件协同进化
4V3/R1训练流程与RL变幻莫测的潜力
5从DeepSeek到算力竞赛的深度思考
陈巍:DeepSeekV3/R1架构的深度分析与深度思考
回顾ScalingLaws
ScalingLaws,也称为缩放定律或规模定律,是描述
模型性能如何随着模型规模(如参数数量)、训练数
据集大小以及用于训练的计算资源增加而提升的一组
经验法则
模型大小与性能的关系
数据量与性能的关系
计算量与性能的关系
性能的可预测性
模型结构的影响
ScalingLaws图示(来源:OpenAI)
陈巍:DeepSeekV3/R1架构的深度分析与深度思考
Moore’slaw与模
文档评论(0)