- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
派生探测:揭示神经语言模型中句法结构的逐层推导
TaigaSomeyaRyoYoshidaHitomiYanakaYoheiOseki
TheUniversityofTokyoRIKEN
{taiga98-0809,yoshiryo0617,hyanaka,oseki}@g.ecc.u-tokyo.ac.jp
AbstractHewittandManning(2019)证明了BERT(Devlin
最近的研究表明,神经语言模型在其内部etal.,2019)中词嵌入空间的几何组织编码了依
本表示法中编码了句法结构,但这些结构在赖解析树上定义的句法距离,提供了该模型捕
不同层之间构建的推导过程仍然知之甚获句法信息的证据。然而,这类研究通常关注
译少。整个句法结构的静态表示,而不是这些句法结
中在本文中,我们提出了派生探测来研究微构在各层之间构建的动态推导过程。不仅要理
1句法结构(例如,主语名词短语)和宏句法解最终的表示形式,还要了解它们如何在各层
v
1结构(例如,根动词与其直接依存关系之之间构建,这对更全面的理解至关重要,并且
6间的关系)如何随着词嵌入在层之间向上
8也可能带来对这些表示形式如何被使用的更好
1传播而构建。
2见解。
.我们在BERT上的实验揭示了一个清晰的
6同时,Tenneyetal.(2019)引入了预期层度
0自下而上的推导过程:微句法结构出现在
5量,并研究了BERT中不同层如何编码不同类
2较低层,并逐渐整合到较高层的连贯宏句
:法结构中。型的语言信息(例如词性标注、句法分析、语
v
i义角色标注和共指消解),揭示模型以反映传
x此外,对主语-动词数一致性的有针对性评
r估表明,构建宏句法结构的时机对下游性统NLP管道的方式编码语言抽象。然而,他们
a
能至关重要,这表明了整合全局句法信息的方法主要依赖于粗粒度的任务准确性衡量,
的最佳时机。仅捕捉到每一层的整体有效性,而不是检查具
体句法结构的详细、逐层构建情况。因此,句
�/osekilab/
法结构如何跨层建立仍然研究不足。
derivational-probing
在这篇论文中,我们通过提出派生探测
1介绍
——一种结合结构探测与预期层度量的方法
神经语言模型在广泛的语言处理任务中取来探究神经语言模型中的句法结构推导过程
得了
文档评论(0)