稀疏自动编码器.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
稀疏自动编码器

Sparse Autoencoder 稀疏自动编码器 王鹏宇 目录 网络结构 参数修正 稀疏自动编码器 程序实现 网络结构--自动编码器 非监督模式识别 输出近似于原始输入 隐含层输出主要特征 使信息熵减小 网络结构--自动编码器 :第L层节点j激活量的输入 :第L层的节点数目 = :第L层节点j的输出 f(x):sigmoid函数或tanh函数 网络结构--自动编码器 sigmoid函数 tanh函数 参数修正 m个训练集 损失函数J(w,b): 第一项:平均平方和误差 第二项:修正项,使所有权重和更小、防止过度拟合 参数修正的目的:使J(w,b)最小化(误差最小) 使用梯度下降法 参数修正 对于每一次迭代 其中 参数修正--求损失函数偏导 残差 :第L层的第i个节点对最终输出值的残差贡献值 计算方法: 1.计算前向过程中的节点激活量 2.计算最终层的残差, 此时 为输出 3.使 可归纳推导得到 参数修正--求损失函数偏导 参数修正--求损失函数偏导 4.利用以上结论,求得 其中: 参数修正--求损失函数偏导 返回 参数修正--修正步骤 稀疏自动编码器 隐层节点数过少,需要对输入进行压缩,当输入为随机高斯序列,提取特征变得困难 希望在隐层节点数量大(甚至比输入层节点数量更多)时仍能实现自动编码提取感兴趣的信息,需要对隐层进行稀疏约束 稀疏表达更有效,人脑神经也是稀疏连接 稀疏自动编码器--稀疏限制 平均输出值 :隐层上每个节点j对于所有输入集i=1:m的平均激活强度 接近于0时(0.05),大多数隐含节点为非 激活状态,隐含层变为稀疏(sigmoid函数 的输出大多数状态是0,tanh函数的输出大 多数状态是-1) 稀疏自动编码器--稀疏限制 稀疏限制:使 接近于0,引入 KL divergence(相对熵)惩罚 偏离 取 为0.2 当 为0.2时整个KL为0 稀疏自动编码器 此时 损失函数: 节点误差: 稀疏自动编码器 稀疏自动编码器 稀疏自动编码器 最终推论

文档评论(0)

75986597 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档