基于LSTM网络的中文地址分词法的设计与实现.PDFVIP

基于LSTM网络的中文地址分词法的设计与实现.PDF

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于LSTM网络的中文地址分词法的设计与实现.PDF

———————————————————————————————————————————————— 基于LSTM 网络的中文地址分词法的设计与实现 作者 张文豪,卢山,程光 机构 武汉邮电科学研究院;南京烽火软件科技有限公司;东南大学 计算机科学与工程学院 基金项目 国家“863”计划资助项目(2015AA015603);国家自然科学基金资助项目 预排期卷 《计算机应用研究》2018 年第35 卷第12 期 摘要 当前中文地址的分词法主要采用基于规则和传统机器学习的方法。这些方法需要人工长期维 护词典和提取特征。为避免特征工程和减少人工维护,提出了将长短时记忆(long short-term memory,LSTM)网络和双向长短时记忆(bi-directional long short-term memory ,Bi-LSTM) 网络分别应用在中文地址分词任务中,并采用四词位标注法以及增加未标记数据集的方法提 升分词性能。在自建数据集上的实验结果表明,中文地址分词任务应用Bi-LSTM 网络结构能 得到较好性能,在增加未标记数据集的情况下,可以有效提升模型的性能。 关键词 中文地址;分词;LSTM ;未标记数据集 作者简介 张文豪(1993- ),男,安徽阜阳人,硕士研究生,主要研究方向为自然语言处理 (727448050@);卢山(1978-),男,副教授,博士,主要研究方向为复杂系统、非 线性时间序列分析、数据库、数据流管理系统;程光(1973-),男,教授,博士,主要研究 方向为网络空间安全监测和防护、网络大数据分析. 中图分类号 TP391 访问地址 /article/02-2018-12-033.html 发布日期 2017 年12 月8 日 引用格式 张文豪, 卢山, 程光. 基于 LSTM 网络的中文地址分词法的设计与实现[J/OL]. 2018, 35(12). [2017-12-08]. /article/02-2018-12-033.html. 35 12 Vol. 35 No. 12 第 卷第 期 计算机应用研究 优先出版 Application Research of Computers Online Publication 基于LSTM 网络的中文地址分词法的设计与实现 * 1, 2 2 3 张文豪 ,卢 山 ,程 光 (1. , 430074; 2. , 210019; 3. 武汉邮电科学研究院 武汉 南京烽火软件科技有限公司 南京 东南大学 计算机科学与工 , 211189) 程学院 南京 摘 要:当前中文地址的分词法主要采用基于规则和传统机器学习的方法。这些方法需要人工长期维护词典和提取特 long short-term memory LSTM 征。为避免特征工程和减少人工维护,提出了将长短时记忆(

文档评论(0)

153****2993 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档