基于多层级知识蒸馏预训练语言模型自动压缩方法及平台.pdfVIP

基于多层级知识蒸馏预训练语言模型自动压缩方法及平台.pdf

  1. 1、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,可选择认领,认领后既往收益都归您。。
  2. 2、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细先通过免费阅读内容等途径辨别内容交易风险。如存在严重挂羊头卖狗肉之情形,可联系本站下载客服投诉处理。
  3. 3、文档侵权举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
本发明公开了一种基于多层级知识蒸馏的预训练语言模型自动压缩方法及平台,所述方法包括如下步骤:步骤一、构建多层级知识蒸馏,在自注意力单元、隐藏层状态、嵌入层三个不同层级上蒸馏大模型的知识结构;步骤二、训练元学习的知识蒸馏网络,生成多种预训练语言模型的通用压缩架构;步骤三、基于进化算法搜索最佳压缩结构。首先,研究基于元学习的知识蒸馏生成多种预训练语言模型的通用压缩架构;其次,在已训练好的元学习网络基础上,通过进化算法搜索最佳压缩结构,由此得到与任务无关的预训练语言模型的最优通用压缩架构。

(19)中华人民共和国国家知识产权局 (12)发明专利申请 (10)申请公布号 CN 112241455 A (43)申请公布日 2021.01.19 (21)申请号 202011498328.2 (22)申请日 2020.12.17 (71)申请人 之江实验室 地址 3

文档评论(0)

知识产权出版社 + 关注
官方认证
文档贡献者

知识产权出版社有限责任公司(原名专利文献出版社)成立于1980年8月,由国家知识产权局主管、主办。长期以来, 知识产权出版社非常重视专利数据资源的建设工作, 经过多年来的积累,已经收藏了数以亿计的中外专利数据资源。

版权声明书
用户编号:7163032066000100
认证主体北京中献电子技术开发有限公司
IP属地四川
统一社会信用代码/组织机构代码
91110108102011667U

1亿VIP精品文档

相关文档