Ask BiDAF:探索斯坦福问答数据集上双向力流模型.pdfVIP

Ask BiDAF:探索斯坦福问答数据集上双向力流模型.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

AskBiDAF

MitchellDouglass,GriffinKoontz,CaelinTran{mrdoug95,griffink,cktt13}@stanford.edu

斯坦福大学|CS224n|2018年冬季

机器语言理解是自然语言处理(NLP)领域内一个高度研究的目标。在基本的问

答(QA)任务中,系统必须根据给定的上下文信息正确回答查询。在本文中,我

们探讨了在斯坦福问答数据集(SQuAD)[5]上实现和扩展一种最先进的QA任务方

法:使用双向查询‑上下文注意力机制的循环神经网络模型[7]。在测试了不同的词

嵌入和字符嵌入、神经网络配置、超参数设置、组装技术以及其他扩展(如基于

训练集中长度的候选先验)后,我们在SQuAD测试集上达到了最终的

F1得分为79.937,EM得分为71.562,证明了双向注意力流(BiDAF)在机器理解

中的实用性。

1引言

我们的精确问答可以描述如下。给定一个人类可读的查询和一个包含

所述查询的自然语言文本上下文,识别出最恰当地回答的文本段落。例

如,一个查询可能是“本杰明・富兰克林时候出生的?”而上下文可能是

关于富兰克林先生的传记百科文章的摘录。从上下文中提取的适当将是

“”。

我们使用斯坦福问答数据集来训练、开发和测试我们的模型。SQuAD是一项大规

模众包项目的成果,该项目中人类参与者从英文百科语料库[5]中组装了超过

10万个上下文、查询及其对应的。在SQuAD赛中,研究人员竞相开发能

够在由原始数据集作者策划的私人测试集上实现尖端性能的问答模型。提交的作品

远远超过了已发布的逻辑回归基线(F1分数为51.0)[5],并且继续接近人类的表

现(F1分数为91.2)[5]。

在我们应对SQuAD的方法中,我们应用了神经网络的深度学习,近年来由于大量高质量数据集

的增加,这种方法得到了,这些数据集是训练所必需的。与传统方法相比,这些模型具有吸引

力,主要是因为它们的端到端特性,即能够仅使用原始数据作为输入进行学习,通常完全省去了耗

时且成本高昂的特征工程过程。

AskBiDAF

MitchellDouglass,GriffinKoontz,CaelinTran{mrdoug95,griffink,cktt13}@stanford.edu

StanfordUniversity|CS224n|Winter2018

Machinelanguagecomprehensionstandsasahighlyresearchedgoalwithinthefieldof

naturallanguageprocessing(NLP).Inthefundamentalquestion-and-answer(QA)task,a

systemmustappropriatelyansweraquerygivencontextualinformation.Inthispaper,

weexploretheimplementationandextensionofonestate-of-the-artapproachtothe

QAtaskontheStanfordQuestionAnsweringDataset(SQuAD)[5]:arecurrentneural

networkmodelusingbidirectionalquery-contextattention[7].Aftertestingdifferent

wordandcharacterembeddings,neuralnetworkconfigurations,hyperparameter

settings,assemblingtechniques,andotherextensions,suchasa

文档评论(0)

daluobu + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档