【《注意力机制探析1100字》】 .docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

注意力机制分析综述

注意力机制(AttentionMechanism)[601早期被应用于机器翻译任务,通过基于RNN的编码-解码器框架中使用注意力机制为特征的不同方面分配权重从而达到忽略输入的中噪声或者冗余,而后被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中。注意力机制根据覆盖范围或窗口选择可以分为全局注意力和局部注意力。其中全局注意力机制的基本思想是将所有的隐藏状态融合成新的上下文向量,如下图2.3所示:

图2.3全局注意力机制结构示意图

在全局注意力机制下,编码器的隐藏状态h会与序列中所有的源状态h进行比较,通过这种方式对h与h相关程度进行打分,接着对每一个隐藏状态h的score(h,h)打分进行一个SoftMax函数归一化最终得到每一个隐藏状态的权重at,a是一个变长对齐向量,表示当前时刻的万对应于所有原始万的注意力

分配权重。

(2-12)

其中对于打分函数的计算方法,LuongAttention[61]中提出了三种,实验表明第一

种点积的的方式对于全局注意力机制比较有效。

(2-13)

得到每个步骤的注意力权重后,通过对这些步骤进行一个加权和的操作得到最终上下文向量的表示:

(2-14)

全局注意力机制充分结合了编码器所有的隐藏状态,将解码器的隐藏状态与编码器的隐藏状态一—比较得出评分,最后得到注意力权重。由于全局注意力机制是一种软注意力机制,即每一时刻解码器都要对所有的编码器状态进行比较,因此这种方式对于长序列来说计算成本很大,效率低下,同时远距离的单词效果并不理想。为了克服这一困难,提出了局部注意力机制[61,解码器只需注意一小部分编码器状态即可,如下图2.4所示:

图2.4局部注意力机制结构示意图

局部注意力机制对软注意力机制以及硬注意力机制进行了对比与权衡,借鉴了硬注意力机制的方式,每一次取部分状态进行计算,同时对模型进行改进,使其更易于训练。就局部注意力机制而言,首先要做的就是寻找局部的中心位置。

当源序列和目标序列不是单调对齐时,寻找局部中心位置算法称为PredictiveAlignment,通过构建参数,让网络自学习并优化参数,最终找到正确的中心位置。如下(2-15)式所示:

Pt=S·sigmoid(vitanh(W?ht))(2-15)

vt和Wp均为模型的可学习参数,ht为解码器的隐含状态,由于Sigmoid函数的的输出值的区间为(0,1),所以中心位置pt的大小为(0,S),S为源序列的长度。

得到中心位置以后,我们再确定其周围位置点的权重因子。这里我们假设局

部注意力机制满足高斯分布,即中心点的注意力权重计算方式同全局注意力机制里面一样,但是周围点的注意力权重则以此为高斯分布展开。添加了以pt为均值、σ=为标准差的高斯分布系数U(p,o)。与全局注意力机制类似,得到at以后,再将at与编码器的所有隐含状态进行一个加权和的操作即可得到最终的上下文信息ct,at(s)的计算方式如下所示:

(2-16)

文档评论(0)

文档之家 + 关注
实名认证
文档贡献者

文档创作者

1亿VIP精品文档

相关文档