网站大量收购独家精品文档,联系QQ:2885784924

【深度学习文本分类算法分析1700字】.docxVIP

【深度学习文本分类算法分析1700字】.docx

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

深度学习文本分类算法分析综述

深度学习从发展之初,一直面临两个巨大的难题,一个是参数量巨大的问题,深层次神经网络由于学习率等问题,往往得到的是极小值,而不是最小值,也就是非全局最优解,这成为了阻碍深度神经网络发展的最主要因素。第一个问题随着计算设备的发展可以得到解决,但是第二个问题不是换上更好的计算设备就可以解决。直到2006年,深度学习大牛,Hinton教授发表的论文中提出了两个重要的观点:(1)复杂的神经网络能够学到特征越好越本质;(2)为了解决得不到全局最优解问题可以一层一层来训练。这时起,深度学习引来了快速发展。深度学习在应用到非线性问题中表现极佳,准确率高,对比一些传统的机器学习算法,它不需要进行一些人为筛选的过程,减少了很多的人力成本。它通过一种维度的转换,解决了很多维度爆炸问题,并且它能够在众多特征向量中选择最适合本问题的特征向量。深度学习它可以将现有的较为火热的,比如语音识别,图像处理,情感分析都有深度学习的影子,它们都是运用深度学习得到一个深层次的特征向量,和人一样可以进行深层次的学习。在国内中,很多学者把深度学习应用到中文文本的情感分析上。

1.1卷积神经网络

卷积神经网络REF_Re\r\h[34]的出现得益于Hubel和Wiesel对生物视觉的研究。近年来,人们对这一领域进行了大量研究,把CNN用于NLP的语义分析REF_Re\r\h[35]、句子建模REF_Re\r\h[36]、搜索查询检索REF_Re\r\h[37]和其他NLP任务取得了优异的成果。卷积神经网络作为前馈神经网络最为特殊的存在,顾名思义就是含有卷积操作。一般的人工神经网络,它的上一层神经元和下一层神经网络都是相互连接,然后通过反向传播进行一个参数的更新,但是神经网络复杂的参数会降低其速度。而卷积神经网络使得相邻层的神经元细胞和前一层部分神经元细胞相连接,极大的减少了神经网络参数的复杂度,训练速度得到了提高,这一系列的操作被称为局部连接。

图2.4CNN的局部连接

图2.4为卷积神经网络的局部连接图,神经网络的第K层的3神神经元不是和K-1层的神经元全部连接,K+1层中的每个神经元和k层的所有神经元都进行了连接,网络则通过K-1层到K层的连接模式局部来接收输入到网络中的信息,再通过K层到K+1层的连接模式综合全部信息。

权值共享是CNN最大特点。卷积核的作用就是进行特征提取。卷积核就和滑轮一样不断滑动,按照一定步长,然后在不同区域得到不同的特征,每一个卷积核都有它独特的特征,都是不一样。

图2.5CNN的权值共享

图2.5是卷积神经网络权值的权值共享图,我们将局部感知和滑动步长分别设置为3和1.将挨着的两层神经元相连。本来是15个参数,但是通过权值共享以及局部连接两个功能,可以降低参数数目,减低模型复杂度,提高拟合能力。

图2.6卷积模型

上图为卷积模型图,卷积网络的检测和提取功能由卷积层和池化层来完成,再由卷积网络完成信息整合以及去除表层意思,以达到提取深层信息和特征提取。神经网络当中只能够识别数字形式的向量形式,所以需要用模型把微博短文本变为向量形式,由于文本向量化后值的差异较大,所以需要把文本统一变成0到1之间的数,也就是归一化操作。每一个尺寸的卷积核可以提取的特征尺寸不一样,从问题本质出发,卷积过程就是池化操作,池化操作的作用很强,具有对重点特征进行筛选的功能,所以在经过池化操作后,收敛所需的epoch会减少。还有一个深度学习普遍面临的问题,就是过拟合问题,但是通过池化操作可以减少过拟合发生的机会。池化操作如2.7所示

图2.7池化图

全连接层就是最后一层隐藏层和输出层相连接,起到映射样本作用,把多维数据表示为一维数据,起到降维的作用。

图2.8CNN文本分类示意图

图2.8以中国地大物博、风景秀丽、交通便捷舒适,对这个输入文本进行一个词向量转化,然后特征提取的工作由卷积层来做。接着深度特征提取和特征筛选是池化层来完成,最后经过全连接之后就完成了文本分类。

1.2长短期记忆网络

长短期记忆网络REF_Re\r\h[38](LSTM)是RNN的后代,为解决梯度消失而产生出来的,这一模型的提出有效解决了梯度消失的问题。LSTM在文本分类REF_Re\r\h[39]REF_Re\r\h[40],手写体识别REF_Re\r\h[41]REF_Re\r\h[42]表现出极大的优势。记忆门如图2.9所示。

图2.9记忆门

LSTM网络计算过程如下:

文档评论(0)

02127123006 + 关注
实名认证
文档贡献者

关注原创力文档

1亿VIP精品文档

相关文档