2025《基于自编码器的数据降维理论概述》2600字.docxVIP

2025《基于自编码器的数据降维理论概述》2600字.docx

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

基于自编码器的数据降维理论概述

目录

TOC\o1-3\h\u22653基于自编码器的数据降维理论概述 1

252131.1神经网络理论 1

209171.2自编码器(Auto-Encoder) 1

201191.3稀疏编码理论 2

250231.4卷积神经网络(ConvolutionalNeuralNetwork) 3

37281.5过拟合与欠拟合 5

1.1神经网络理论

提到神经网络,可能给人的第一印象是人体的大脑内错综复杂的神经系统,人体神经网络的秘密可能只被人挖掘出一小部分,但是在机器学习的领域,人们可以直接模仿人的神经网络来建立模型。人们仿照人类的大脑,给模型赋予数万神经元,这些神经元之间的作用与人脑不同的是,可以通过外界条件令神经元的结构作出改变,而神经网络可以通过神经元的结构以及神经元之间作用的改变,进行适应性的变化。

人类大脑中的神经元,承担了大脑信息以及人体信号的传递工作,同样的,计算机神经网络中的神经元也担负着这样的工作,而且,神经元还可以通过训练得到不断的进步,从而能够敏感地获取到独特的信息或数据。

神经网络分为输入层、隐层和输出层。通过输出层获得直观的结果,可以了解计算机是如何学习的。

人工干涉可以训练神经网络中的神经元,训练过程是神经元连续更新,形成神经系统的前向和后向传播过程。

自编码器是一种基于神经网络互联和协作形成的算法模型。然后对隐藏层中的各层进行分层训练,在神经元数低于输入层时,对高维数据进行特征提取。

自编码器是由神经网络的逐层连接、累积和协作下形成的算法模型。然后,通过对隐层的逐层训练,在隐层神经元数小于输入层神经元数的情况下,对高维数据进行特征提取。

1.2自编码器(Auto-Encoder)

如上文所引出的,自编码器REF_Ref32336\r\h[5]类属于神经网络的一种,基本形式是输入等于输出,训练的是其内部的神经元,得到的输出结果是输入的一种重构。自编码器的主要作用是重构输入,这也是基于其进行数据降维的概念基础。然而,自编码器并不局限于重构输入,输入数据由隐层神经元编码,以得到数据的精髓部分,这才是其最主要的结构性功能。

图2-1展示了自编码器的主要训练流程:

图SEQ图\*ARABIC2-1自编码器训练过程

如图可以看出,自编码器是由编码器(encoder)和解码器(decoder)构成的,训练过程就是对输入数据“取其精华,去其糟粕”的过程,解码器的作用就是将训练得到的“精华”数据进行解压,将其还原成可以展示出来的原始信息。我们在本文对算法的论述,针对的是前面编码阶段的部分,此部分与数据降维关系较密切,而解码器的模型,只做展示性论述。

1.3稀疏编码理论

稀疏编码(Sparsecoding)的概念起源于视觉神经网络的研究,它用来表示多维数据中同时处于活跃状态的少量神经元。通过建立统计特征之间的定量关系,称为理解神经系统信息处理机制的理论工具。

如图2-2所示,稀疏编码理论[6]中,一些信号或图像被取作本征向量,其部分的基本原子形成标准化的基本矩阵,称为基。信号的共轭差积频率的波形或图像的组件的边缘可以形成基本矩阵。

图2-2DAE示范图

稀疏性可以简单地理解为神经元具有激活与抑制两种状态,区别这两种状态的方法是基于神经元的输出,接近1表示激活,接近0表示抑制。稀疏性限制是指神经元大部分时间受到抑制的限制,神经元的激活函数是sigmoid函数。如图2-3,某一隐藏层的神经元部分收到抑制,并未全部发挥作用。

图2-3自编码器的隐层神经元受抑制

引入稀疏的好处在于其能够对特征进行自动选择。学习过程,有些信息与数据可能与我们需要的输出无关或无法提供有用信息,尽管考虑这些信息会减小最小化目标函数的误差,但是预测过程考虑这些无关信息,可能会使对输出的预测造成干扰,稀疏化将删除这些无用的特征,即权重置0。

本文所涉实验会将稀疏规则化算子L1/L2引入输入层,为了限制编码器的稀疏性,实现稀疏编码。

1.4卷积神经网络(ConvolutionalNeuralNetwork)

卷积神经网络(CNN)又称“平移不变人工神经网络(SIANN)”,也是由生物的视觉神经知觉的机制仿造而来,它具有按层次结构进行翻译不变性分类的能力,是深度学习的代表性算法之一。

卷积神经网络(CNN)REF_Ref32767\r\h[6],主要用于处理具有相似网格结构的数据的神经网络,“卷积”是一种特殊的线性运算。计算机中的图形,由于存储着一些空间关联性的信息,所以是一个三维数据,而全连接神经网络的数据输入,是把无论几维数据都摊开为一维数据,但是摊平的过程中会忽视图形形状,也就是数据的波形,这之中可能隐藏着对我们

您可能关注的文档

文档评论(0)

02127123006 + 关注
实名认证
文档贡献者

关注原创力文档

1亿VIP精品文档

相关文档