Transformer效率优化-2024全球机器学习技术大会.pdf

Transformer效率优化-2024全球机器学习技术大会.pdf

  1. 1、本文档共48页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

2024全球机器学习技术大会(北京站)主题涵盖大语言模型技术演进、多模态大模型前沿、大模型工程与架构、大模型应用开发实践、AI智能代理、代码大模型等12个热门专题,力求为全球开发者、研究人员、行业技术人员提供全方位、多角度的技术交流平台。

2024全球机器学习技术大会(北京站)主题涵盖大语言模型技术演进、多模态大模型前沿、大模型工程与架构、大模型应用开发实践、AI智能代理、代码大模型等12个热门专题,力求为全球开发者、研究人员、行业技术人员提供全方位、多角度的技术交流平台。

2024全球机器学习技术大会(北京站)主题涵盖大语言模型技术演进、多模态大模型前沿、大模型工程与架构、大模型应用开发实践、AI智能代理、代码大模型等12个热门专题,力求为全球开发者、研究人员、行业技术人员提供全方位、多角度的技术交流平台。

王炳宁

百川智能预训练负责人

博士毕业于中国科学院自动化研究所,主要研究问答系统和大语言模型。历任搜狗、

腾讯高级研究员,有着丰富大规模生成式模型经验,主导并发布如ReCO、ComQA、

2024全球机器学习技术大会(北京站)主题涵盖大语言模型技术演进、多模态大模型前沿、大模型工程与架构、大模型应用开发实践、AI智能代理、代码大模型等12个热门专题,力求为全球开发者、研究人员、行业技术人员提供全方位、多角度的技术交流平台。

ChiQA、T2Ranking等大规模中文问答数据,以及Baichuan系列预训练模型。在

ACL、SIGIR、AAAI等国际顶级人工智能和自然语言处理会议上以第一作者发表论

文11篇,并获得2021年CIKMbestpaperrunnerup。博士论文《机器阅读理解

关键技术研究》获2019年中国中文信息学会优秀博士论文奖。中国中文信息学会青

年工作委员会执行委员。

演讲主题:

Transformer效率优化

Tranformer

2024全球机器学习技术大会(北京站)主题涵盖大语言模型技术演进、多模态大模型前沿、大模型工程与架构、大模型应用开发实践、AI智能代理、代码大模型等12个热门专题,力求为全球开发者、研究人员、行业技术人员提供全方位、多角度的技术交流平台。

效率优化

百川智能

王炳宁

2024-11-14

语言模型的发展历程

•n-gramlanguagemodel

语言模型会将句子的概率拆解成其组成部分的概率

2024全球机器学习技术大会(北京站)主题涵盖大语言模型技术演进、多模态大模型前沿、大模型工程与架构、大模型应用开发实践、AI智能代理、代码大模型等12个热门专题,力求为全球开发者、研究人员、行业技术人员提供全方位、多角度的技术交流平台。

N=2:bigram

N=3:trigram

P(我是中国人)=P(我)*P(是|我)*P(中|是)*P(国|中)*P(人|国)

语言模型的发展历程

•n-gramlanguagemodel

传统统计学习的方法大多都是基于极大似然估计(maximum

文档评论(0)

优选文档 + 关注
实名认证
内容提供者

专注于发布优质文档,喜欢的可以关注一下哦~

1亿VIP精品文档

相关文档