面向低资源关系抽取的自训练方法.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

软件学报

ISSN

1000-9825,

CODEN

RUXUEWE-mail:

jos@

2025,36(4):1620−1636

[doi:

10.13328/ki.jos.007219]

[CSTR:

32375.14.jos.007219]

©中国科学院软件研究所版权所有.Tel:

+86-10

*

面向低资源关系抽取的自训练方法

1211

郁俊杰,

星,

陈文亮,

1(苏州大学

计算机科学与技术学院,

江苏

苏州

215006)

2(腾讯AI

Lab,

广东

深圳

518000)

通信作者:

陈文亮,

E-mail:

wlchen@

摘要:

自训练是缓解标注数据不足问题的常见方法,

其通常做法是利用教师模型去获取高置信度的自动标注数

据作为可靠数据.

然而在低资源场景关系抽取任务上,

该方法不仅存在教师模型泛化能力差的问题,

而且受到关系

抽取任务中易混淆关系类别的影响,

导致难以从自动标注数据中有效地识别出可靠数据,

同时产生大量难以利用

的低置信度噪音数据.

因此,

提出一种有效利用低置信度数据的自训练方法ST-LRE

(self-training

approach

for

low-

resource

relation

extraction).

该方法一方面基于复述增强的预测方法来加强教师模型筛选可靠数据的能力;

另一方

面,

基于部分标注模式从低置信度数据中提炼出可利用的模糊数据.

基于模糊数据的候选类别集合,

提出了基于负

标签集合的负向训练方法.

最后,

为了支持可靠数据和模糊数据的融合训练,

提出一种支持正负向训练的联合方法.

在两个广泛使用的关系抽取数据集SemEval2010

Task-8和Re-TACRED的低资源场景上进行实验,

ST-LRE方法

取得显著且一致的提升.

关键词:

自然语言处理;

信息抽取;

关系抽取;

低资源;

自训练

中图法分类号:

TP18

中文引用格式:

郁俊杰,

王星,

陈文亮,

张民.

面向低资源关系抽取的自训练方法.

软件学报,

2025,

36(4):

1620–1636.

http://www.jos.

/1000-9825/7219.htm

英文引用格式:

Yu

JJ,

Wang

X,

Chen

WL,

Zhang

M.

Self-training

Approach

for

Low-resource

Relation

Extraction.

Ruan

Jian

Xue

Bao/Journal

of

Software,

2025,

36(4):

1620–1636

(in

Chinese).

/1000-9825/7219.htm

Self-trainingApproachforLow-resourceRelationExtraction

1211

YU

Jun-Jie,

WANG

Xing,

CHEN

Wen-Liang,

ZHANG

Min

1(School

of

Computer

Science

and

Technology,

Soochow

University,

Suzhou

215006,

China)

2(Tencent

AI

Lab,

Shenzhen

518000,

China)

Abstract:

Self-training,

a

common

strategy

for

tackling

the

annotated-data

scarcity,

typically

involves

acquiring

auto-anno

文档评论(0)

你就是我的小鱼鱼 + 关注
实名认证
文档贡献者

教师资格证持证人

该用户很懒,什么也没介绍

领域认证该用户于2024年10月18日上传了教师资格证

1亿VIP精品文档

相关文档