DS@GT 在 CheckThat! 中 2025: 通过迁移学习和纠正性 数据增强检测主观性 CheckThat! 实验室在 CLEF 2025 的笔记本检查笔记-计算机科学-主观性检测-迁移学习.pdfVIP

DS@GT 在 CheckThat! 中 2025: 通过迁移学习和纠正性 数据增强检测主观性 CheckThat! 实验室在 CLEF 2025 的笔记本检查笔记-计算机科学-主观性检测-迁移学习.pdf

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

DS@GT在CheckThat!中2025:通过迁移学习和纠正性

数据增强检测主观性

CheckThat!实验室在CLEF2025的笔记本检查笔记

1,∗1

MaximilianHeil,DionneBang

1GeorgiaInstituteofTechnology,NorthAveNW,Atlanta,GA30332

Abstract

本文介绍了我们对CheckThat!实验室在CLEF2025年举办的第一项任务——主观性检测的提交内容。我们研究了迁移学习和

风格数据扩增的有效性,以提高对英文新闻文本中主观性和客观性句子分类的准确性。我们的方法对比了预训练编码器的微

调以及相关任务上已微调变换器的迁移学习。我们还引入了一个使用GPT-4o生成预先定义的主观性样式的释义的受控扩增

流水线。为了确保标签和风格的一致性,我们使用同一个模型来校正并优化生成的样本。结果显示指定编码器的迁移学习优

于泛用型编码器的微调,并且精心策划的数据扩增显著提升了模型的稳健性,尤其是在检测主观内容方面。我们的官方提交

在24名参赛者中排名16。总体而言,我们的研究结果强调了结合编码器专业化与标签一致性的扩增对于改进主观性检测的

价值。我们的代码可以在/dsgt-arc/checkthat-2025-subject获取。

Keywords

主观性检测,迁移学习,变换器,数据生成,GPT,微调,CEUR-WS

中1.介绍

1鉴于全球范围内误传信息的巨大风险[1],自动事实核查系统的必要性至关重要。与机器学习管道

v类似,一个自动事实核查系统不仅仅包含分类器:检索来为事实核查配备证据,数据准备以符合系

9统格式要求,训练或微调以提高分类性能,等等。例如,客观句子可以直接进行事实核查,主观句

8

1子则需要进一步的数据增强才能传递到事实核查系统中。必须去除主观句子中的情感、意见或个人

6解释,以便事实核查系统可以随后专注于仅事实验证。这激发了CheckThat!实验室在CLEF2025[2]

0的工作,其中任务1集中在识别新闻文章中的主观和客观句子[3]。CheckThat!的任务1近年来已

.

7经发展,在多语言和单语境中处理主观性检测的问题。2023年和2024年的先前版本使用基于变压

0器的模型建立了强大的基线,并探索了传统方法和生成方法[4,5]。参赛团队应用了基于词汇的分

5类器,微调的编码器,以及越来越多地使用合成数据生成来提升在有限数据设置下的性能。

2

:本文中,我们介绍了我们在2025年英语单语任务中的贡献。我们的方法探索了三个关键研究领域:

v迁移学习、数据增强和生成模型自我纠正的能力。我们评估了一般预训练编码器,并将它们与已经

i

x针对相关任务微调的编码器(指定编码器)进行了比较。此外,我们通过大型语言模型(LLM)进

r行风格性释义来调查数据增强的作用。另外,我们引入了一个使用同一LLM的校正流水线,以使

a

生成的释义与其预期标签和风格属性保持一致。每个组件的影响通过详细的消融实验得到了评估。

总体而言,在竞赛中我们的方法排名为第16名(共24名)。

本文的结构如下:第2节突出相关工作,第3节介绍我们的方法论,第4节描述数据集,第

5节和第6节展示并讨论结果,第7节强调未来研究方向,第8节总结。

2.相关工作

主观性检测在不同情境[6]、领域[7]和语言[8]中有着悠久的历史。更具体地说,在新闻文章中的

您可能关注的文档

文档评论(0)

zikele + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档