- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
深入理解自编码器(附代码实现)
导语:?自编码器可以认为是一种数据压缩算法,或特征提取算法。本文作者NathanHubens介绍了autoencoders的基本体系结构。首先介绍了编码器和解码器的概念,然后就“自编码器可以做什么?”进行讨论,最后分别讲解了四种不同类型的自编码器:普通自编码器,多层自编码器,卷积自编码器和正则化自编码器。 自编码器可以认为是一种数据压缩算法,或特征提取算法。本文作者NathanHubens介绍了autoencoders的基本体系结构。首先介绍了编码器和解码器的概念,然后就“自编码器可以做什么?”进行讨论,最后分别讲解了四种不同类型的自编码器:普通自编码器,多层自编码器,卷积自编码器和正则化自编码器。
Deepinside:Autoencoders
自编码器指的是试图让输出和输入一样的神经网络。他们通过将输入压缩成一个隐藏空间表示来进行工作,然后通过这种表示重构输出。这种网络由两部分组成:
1.编码器:这是自编码网络的一部分,功能在于把输入变成一个隐藏的空间表示。它可以用一个编码函数h=f(x)表示。
2.解码器:这部分旨在从隐藏空间的表示重构输入。它可以用解码函数r=g(h)表示。
作为一个整体的自编码器可以用函数g(f(x))=r来描述,其中r与原始输入x相近。
为什么要将输入复制到输出中?
如果autoencoders的唯一目的是将输入复制到输出中,那么它们将毫无用处。实际上,我们希望通过训练autoencoder将输入复制到输出中,隐藏表示h将具有有用的属性。
这可以通过在复制任务上添加一些限制条件进行实现。从自编码器获得有用特征的一种方法是将h限制为小于x的维度,在这种情况下,自编码器是不完整的。通过训练不完整的表示,我们强制自编码器学习训练数据的最显著特征。如果自编码器的容量过大,自编码器可以出色地完成赋值任务而没有从数据的分布抽取到任何有用的信息。如果隐藏表示的维度与输入相同,或者隐藏表示维度大于输入维度的情况下,也会发生这种情况。在这些情况下,即使线性编码器和线性解码器也可以将输入复制到输出,而无需了解有关数据分配的任何有用信息。理想情况下,自编码器可以成功地训练任何体系结构,根据要分配的复杂度来选择编码器和解码器的代码维数和容量。
自编码器可以用于干什么?
当前,数据去噪和数据可视化中的降维被认为是自编码器的两个主要的实际应用。通过适当的维度和稀疏性约束,自编码器可以学习比PCA或其他基本技术更有趣的数据投影。
自编码器通过数据样本自动学习。这意味着很容易训练特定的算法实例,该算法在特定类型的输入中表现良好,并且不需要任何新工程,只需要适当的训练数据。
但是,自编码器在图像压缩方面做得不好。由于自编码器是在给定的一组数据上进行训练的,因此它将对类似于所用训练集中的数据实现合理的压缩结果,但是作为图像压缩器效果是不好的。像JPEG这样的压缩技术效果比自编码器效果好很多。
自编码器经过训练,可以在输入通过编码器和解码器后保留尽可能多的信息,但也会接受训练以使新的表示具有各种不错的属性。不同类型的自编码器旨在实现不同类型的属性。我们将关注四种类型的自编码器。
自编码器的类型:
在本文中,将介绍以下四种类型的自编码器:
1.普通自编码器
2.多层自编码器
3.卷积自编码器
4.正则化的自编码
为了演示不同类型的自编码器,我使用Keras框架和MNIST数据集创建了每个类型自编码器的示例。
普通自编码器
普通自编码器是三层网络,即具有一个隐藏层的神经网络。输入和输出是相同的,我们将学习如何重构输入,例如使用adam优化器和均方误差损失函数。
在这里,我们看到我们有一个欠完备自编码器,因为隐藏层维(64)小于输入(784)。这个约束将强加我们的神经网络来学习压缩的数据表示。
多层自编码器
如果一个隐藏层不够用,我们显然可以将自编码器扩展到更多的隐藏层。
现在我们的实现使用3个隐藏层,而不是一个。任何隐藏层都可以作为特征表示,但我们将使网络结构对称并使用最中间的隐藏层。
卷积自编码器
我们也可能会问自己:自编码器可以用于卷积层而不是全连接层吗?
答案是肯定的,原理是一样的,但使用图像(3D矢量)而不是平坦的1维矢量。对输入图像进行下采样以提供较小尺寸的隐藏表示并强制自编码器学习图像的压缩版本。
正则化的自编码器
还有其他一些方法可以限制自编码器的重构,而不是简单地强加一个维度比输入小的隐藏层。正规化自编码器不是通过调整编码器和解码从而限制模型容量,而是使用损失函数,鼓励模型学习除了将输入复制到其输出之外的其他属性。在实践中,我们通常会发现两种正规化自编码器:稀疏自编码器和去噪自编码器。
稀疏自编码器:
您可能关注的文档
最近下载
- 最新2023版知识产权贯标GBT29490 09知识产权维护运用控制程序(含表单)[知识产权合规管理体系文件].docx
- 煤矿合法股权转让协议9篇.docx VIP
- GB_T 9711-2023石油天然气工业 管线输送系统用钢管.doc VIP
- 导体结构设计.xls VIP
- 电梯安全风险管控清单.doc VIP
- 生殖医学中心专业技术人员考核试题及答案.docx VIP
- 2024年度健康体检大数据蓝皮书.pdf
- 部编版语文六年级上册第四单元教案+教学反思(共6篇).pdf VIP
- 球墨铸铁管与其它管材的连接件技术规范.docx VIP
- NB∕T 11273-2023 工业锅炉设计文件鉴定技术导则.pdf
文档评论(0)