- 1、本文档共3页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
Attention-basedSentenceSentimentAnalysis
短文本或长句的分析涉及到上下文语义信息,传统自然语言处理的方法难以有效估
计其语义。为此,我们提出一种基于注意力机制的LSTM分类器,通过增长训练
文本的长度,有效地提升分类准确率。
1RelatedWork
1.1WordEmbeddings
[1]
Bengio等人基于前馈神经网络提出一种训练单词的分布式表示方法监督学习方法,
[2]
Mikolov等人进一步在复杂的自然语言处理任务中,引入任务相关的词向量学习,得
到了更好的泛化性能。
1.2LSTMBi-LSTM
Hochreiter与Schmidhuber[3]提出一种带门限的递归神经网络,以解决编码长序列输入时
的梯度问题。Graves与Schmidhuber[4]进一步扩展出双向LSTM,显著地改善了音素识
别准确率。
1.3Attention-basedModel
注意力投射在卷积神经网络的空域输入上,也出了与图像更吻合的文本描述。
2Method
我们利用LSTM或Bi-LSTM编码时序词向量输入W,得到t组输出向量H,并经过一
个或多个全连接层投射为长度为t的向量计算注意力。注意力权重计算如下:
()
exp
=
∑1exp(
其中ei为时序i时的注意力向量。
则最终基于注意力的上下文相关的分类特征C可计算为:
=∑
1
我们使用Softma叉熵对特征C做多分类。
3Experiments
3.1LargeMovieReviewDataset
[7]
Mass等人从IMDB上收集了50000条影评,并根据评分设计了对应的。
影评的长度在50词至3000词之间,我们通过限制训练以及测试长度以提高模型计算效率。
3.2ImplementationDetails
[8]
我们基于Dragon框架完成了实验。字典大小设置为10000词,Embeddings及LSTM
输出维度为128,同时0.5概率的Dropout被使用以减轻过拟合问题。
模型以128的批梯度大小迭代300次,使用学习率为0.01的Adam优化器优化。
3.3AblationResults
我们分别评估了基于平均池化与注意力的特征C在不同训练长度、固定测试长度(300
词)组合下的分类准确率。实验结果表明,在没有双向递归的增强下,基于注意力的特征不
仅得到了近似的结果,且泛化能力随着训练文本长度的增加而增强。
模型/特征平均池化
您可能关注的文档
最近下载
- fagor发格CNC 8055_M_操作手册_1110.pdf
- 普通话水平测试实施纲要.pptx VIP
- 以“学习圈”理论优化小学高段记叙文写作教学-来源:广西教育(义务教育)(第2021005期)-广西教育杂志社.pdf VIP
- TCPIA 0001-2017 地面光伏组件 光伏组件设计鉴定和定型质量保证导则.docx VIP
- 2025年数字低空安全技术白皮书.docx VIP
- 隧道锚施工方案.docx VIP
- 变电站二次系统 第2部分:数据与模型.pdf VIP
- 人教版三年级数学下册第五单元测试卷(含答案).pdf VIP
- 2023输变电工程消防验收标准.pdf
- CATIA实用教程(清华大学出社)全套电子新版.ppt VIP
文档评论(0)