LORANGE:一种机器翻译评测自动元评价方法.docVIP

LORANGE:一种机器翻译评测自动元评价方法.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
LORANGE:一种机器翻译评测自动元评价方法   摘要:本文提出一种LORANGE (Limited ORANGE)自动元评价方法,在语料资源受限的情况下,对目前主流的基于n元语法的BLEUS、ROUGE-L和ROUGE-S的性能进行评价。这种自动元评价方法弥补了传统人工元评价方法的主观性强、代价高昂、不稳定、评测周期长等缺点,有利于机器翻译系统的参数优化调整和缩短系统研发周期。在俄汉双语句对齐的数据集上,采用这种方法对BLEUS、ROUGE-L、ROUGE-S进行性能评估,实验结果显示,ROUGE-L性能最优,ROUGE-S次之,BLEUS性能最差;并且通过与人工元评价结果进行一致性检验,LORANGE自动元评价方法的有效性与可行性得以验证。   关键词:LORANGE;BLEUS;ROUGE-L;ROUGE-S;自动元评价   中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2017)05-0138-05   Abstract: This paper addressed an automatic meta-evaluation method of machine translation (MT) evaluation based on ORANGE-Limited ORANGE. It was adopted as the resources were limited, to evaluate the performances of the three metrics- BLEUS, ROUGE-L and ROUGE-S, which were based on n-gram and widely used in the domain of MT evaluation. Compared with the traditional method operated by human, this method can evaluate metrics automatically without extra human involvement other than using a set of reference translations. It only needed the average rank of the reference, and it was not influenced by the subjective factors. This method costed less and expended less time than the traditional one, which would have advantages to the parameter tuning and shortening system period. In this paper, we use this automatic meta-evaluation method to evaluate BLEUS, ROUGE-L and ROUGE-S on the Russian-Chinese dataset. The result shows that the ROUGE-Ls performance is the best and that of BLEUS is the worst, the ROUGE-S is worse than ROUGE-L but better than BLEUS. Also, the consistance and effectiveness of Limited ORANGE are verified through consistency test with human meta-evaluation results.   Key words: LORANGE; BLEUS; ROUGE-L; ROUGE-S; Automatic Meta-evaluation   1 概述   ?C器翻译系统评测在机器翻译领域起着重要的作用。它能够对系统性能进行评估,使系统开发者及时得知系统存在的问题并加以改进;同时可以为用户提供系统译文质量评估的依据。国家语言文字工作委员会发布的机器翻译系统评测规范[1]指出,机器翻译评测一般分为人工评测和自动评测两类。其中,人工评测主要由同时精通源语言和目标语言的专家主观地对系统输出译文的忠实度和流利度进行打分;主观性强,受外界因素影响比较大,代价高昂,评判周期长,无法适应机器翻译系统修改及参数调整的进度,无形中延长了系统研发周期,难以向研发者和用户提供高效的评测结果。于是,研究者更倾向于使用自动评测方法对系统译文进行量化评估。因此自动

文档评论(0)

yingzhiguo + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5243141323000000

1亿VIP精品文档

相关文档