网站大量收购闲置独家精品文档,联系QQ:2885784924

利用递归卷积神经网络进行文本分类.pptVIP

利用递归卷积神经网络进行文本分类.ppt

  1. 1、本文档共15页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

循环卷积神经网络用于文本分类特征表示:词袋方法(一元、两元、N元)其它方法:frequecy,MI,pLSA,LDA缺点:忽略了词语所在的语境和词语的顺序,不能有效获取词语的语义EX:AsunsetstrollalongtheSouthBankaffordsanarrayofstunningvantagepoints.(Bank在这里是河岸,而不是银行)问题:文本分类增加词袋元素维度:比如扩展到“strollalongtheSouthBank”(5-gram)01更复杂的特征表示方法:比如TreeKernels方法01存在问题:数据稀少(datasparsity),即有效的信息量太少,影响分类的准确度。01已有解决方法单词表示—词向量词向量(wordembedding):1.词向量(wordembedding):传统的词向量:One-hotRepresentation “话筒”表示为[000?1?000000000000...]

“麦克”表示为[00000000?1?0000000...] 缺点:“词汇鸿沟”;纬度高;数据稀疏改进的词向量:DistributedRepresentation 即一种单词的分布式表示方法,能有效降低数据稀疏问题,经过训练的词向量可以表征句法和语义信息。DistributedRepresentation表示形式: [0.792,?0.177,?0.107,0.109,?0.542,...]。维度以50维和100维比较常见。这种向量的表示不是唯一的。特点是越相似的词距离越近。解决了One-hotRepresentation表示词汇时不能表示两个词汇关系的问题。

文本表示-神经网络神经网络结构:基本的神经网络结构包含三部分:输入层、隐含层、输出层神经网络的特点:自学习、联想存储、高度并行性、容错性、鲁棒性。。。文本表示递归神经网络(RecursiveNN):利用树结构对语句进行建模。时间复杂度:至少是O(n2),其中n是句子或者文本的长度,因此不适合长句子或者文本。另一方面,两个句子之间的关系很难通过树结构进行表示。文本表示循环神经网络(RecurrentNN):01对文本进行逐词分析,将已有的文本信息存储在固定大小的隐藏层。02时间复杂度:O(n)03缺点:不公平性,后出现的单词比前出现的单词重要性更高。因此对于整个文本进行分类时会降低有效性。因为文本中重要的单词会在任何地方出现。04文本表示 卷积神经网络(ConvolutionalNN): 卷积神经网络可以有效解决不公平性问题。 时间复杂度O(n) 已有的研究大多使用简单的卷积内核,比如固定窗口大小。这样窗口大小成为制约性能的关键因素:太小可能会丢失重要信息、太大会导致参数空间过大而难以训练。本文解决方法利用循环卷积神经网络(RCNN)解决文本分类问题,即将循环神经网络和卷积神经网络结合,对文本进行表示。方法主要贡献:利用双向循环神经网络来表征单词的上下文信息利用最大池层自动判断哪个特征在文本分类中的作 用更大方法细节—单词表示利用单词和它的上下文信息共同表示一个单词: wi=[cl(wi);e(wi);cr(wi)]cl(wi):单词wi左边的文本内容cr(wi):单词wi右边的文本内容e(wi-1):单词wi-1的词向量W(l):将隐藏层传递到下一层的矩阵W(sl):将当前单词的语义和下一个单词左边的文本组合起来的矩阵f:非线性激活函数方法细节—单词表示利用循环神经网络对语句“AsunsetstrollalongtheSouthBankaffordsanarrayofstunningvantagepoints”进行建模表示。方法细节—文本表示得到单词wi的表示形式xi之后,利用双曲正切函数进行转换,将结果传递到下一层:Yi(2)=tanh(w(2)xi+b(2))利用卷积神经网络来表示文本,当所有的单词的表示都计算完成后,进行池化操作,这里采用的是最大池化:Y(3)=maxyi(2)(i=1,2….n)最大池层将不同长度的文本转换为具有相同长度的向量。采用最大池层的好处是可以发现文本中最重要的语义信息。

文档评论(0)

136****0775 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档