注意力机制(基于seq2seq-RNN)详解.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

注意力机制(基于seq2seqRNN)详解

本节提出了注意力(Attention)机制,这是神经网络翻译的最新解决方案。

注意力的思想是2015年在论文“NeuralMachineTranslationbyJointlyLearningtoAlignandTranslate”(DzmitryBahdanau,KyunghyunCho和YoshuaBengio,ICLR,2015)中提出的,它需要在编码器和解码器RNN之间增加额外的连接。事实上,仅将解码器与编码器的最新层连接会存在信息瓶颈,而且不一定能够传递先前编码器层的信息。

下图说明了采用注意力机制的方法:

图1引入注意力模型的NMT示例

需要考虑以下三个方面:

将当前目标隐藏状态与所有先前的源状态一起使用,以导出注意力权重,用于给先前序列中的信息分配不同的注意力大小。

总结注意力权重的结果创建上下文向量。

将上下文向量与当前目标隐藏状态相结合以获得注意力向量。

具体做法

通过使用库tf.contrib.seq2seq.LuongAttention来定义注意力机制,该库实现了文献“EffectiveApproachestoAttention-basedNeuralMachineTranslation”(Minh-ThangLuong,HieuPham和ChristopherD.Manning,2015)中定义的注意力模型:

?

通过一个注意力包装器,使用所定义的注意力机制作为解码器单元进行封装:

?

运行代码查看结果。可以立即注意到注意力机制在BLEU评分方面产生了显著的改善:

解读分析

注意力机制是使用编码器RNN内部状态获得的信息,并将该信息与解码器的最终状态进行组合的机制,关键思想是可以对源序列中的信息分配不同的注意力。下图的BLEU得分显示了应用注意力机制后的优势。

图2使用注意力机制的BLEU指标示例(点此查看高清大图)

文档评论(0)

+ 关注
实名认证
文档贡献者

好文档 大家想

1亿VIP精品文档

相关文档