- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
高级大数据人才培养丛书之一,大数据挖掘技术与应用
刘鹏 主编 赵海峰 副主编
BIG
DATA
刘 鹏 张 燕 总主编
深度学习
全国高校标准教材《云计算》姊妹篇,剖析大数据核心技术和实战应用
of
41
2
习题
概述
第四章 深度学习基本过程
of
41
3
深度学习的基本过程是用训练数据去训练神经网络的模型去并得到所需模型的过程,主要包括正向学习和反向调整两个过程。
反向调整就是将预测结果和标签进行对比,反向调整模型参数的过程。
正向学习就是从输入层开始,自底向上进行特征学习,最后在输出层输出预测结果。
全国高校标准教材《云计算》姊妹篇,剖析大数据核心技术和实战应用
of
41
4
习题
4.1正向学习过程
4.1.1正向学习过程概述
of
41
5
第四章 深度学习基本过程
样本由输入层传入第一层layer,经第一层每个节点计算,每个节点得到一个输出,其输出继续作为下一层的输入,向前传播,直到输出层输出预测的结果。
初次正向传播会先初始化网络的权值,得到的输出值并不一定正确值。
4.1正向学习过程
of
41
6
第四章 深度学习基本过程
4.1.2正向传播的流程
若把深度学习的网络看做一个若干层的系统,
I为输入,O为输出,若经过若干变换,输出仍能正确表达输入,就认为模型学到了一条正确表达输入的规律。
4.1正向学习过程
of
41
7
第四章 深度学习基本过程
4.1.3 正向传播的详细原理
基本单元:神经元
深度学习网络的实质是人工神经网络发展到多隐层的状态,其基本单元仍是神经元。
4.1正向学习过程
of
41
8
第四章 深度学习基本过程
4.1.3 正向传播的详细原理
以此类推,假设l-1层,共有m个神经元,则对于l-1层的第j个神经元有:
4.1正向学习过程
of
41
9
第四章 深度学习基本过程
4.1.3 正向传播的详细原理
数据输入网络 向前传播 softmax分类器 输出每类的预测结果
全国高校标准教材《云计算》姊妹篇,剖析大数据核心技术和实战应用
of
41
10
习题
4.2反向调整过程
of
41
11
第四章 深度学习基本过程
4.2.1反向调整概述
正向传播后,输入获得了一个对应的输出,将输出与输入的label相对比,计算误差值。误差值与各层参数相关,反向传播,将误差分摊到各层,修正各层参数,从而最小化误差值,优化模型参数。
4.2反向调整过程
of
41
12
第四章 深度学习基本过程
4.2.2反向传播过程详解
反向传播原理:对比期望输出和实际输出,得到代价(误差)函数。为了最小化代价函数,利用链式求导,将误差向前传,修正各层参数。
链式求导:
多元函数链式法则:若 在 处可为微,
每个函数 在点 处可微分,则:
4.2反向调整过程
of
41
13
第四章 深度学习基本过程
4.2.2反向传播过程详解
梯度下降法:梯度下降法是最常用的神经网络优化算法。
若将代价函数简单可视化,代价函数相当于一个崎岖不平的盆地,有高峰也有低谷(最小值)。梯度下降的目标是取得最小值,每次沿着最陡峭的方向(梯度方向),下降一定的距离(步长)。
4.2反向调整过程
of
65
14
第四章 深度学习基本过程
4.2.2反向传播过程详解
梯度下降法:
梯度下降的步长不是一直不变的,当下降接近底部的时候,需要调整步子的大小,小心试探。当步子太大时,容易跨过最低点,在底部来回震荡。步子过小,下降速度会较慢。
在梯度下降过程中,节点i和j之间连接的权重 的更新如下:其中η为学习速率,用于控制步长的变化。
4.2反向调整过程
of
41
15
第四章 深度学习基本过程
4.2.2反向传播过程详解
由于初始化函数不同,初始下降点也会不同,下降路线也会不同。所以梯度下降有可能会得到局部最小值,而不是全局最小值。
4.2反向调整过程
of
41
16
第四章 深度学习基本过程
4.2.3深层模型反向调整的问题与对策
反向传播的问题
梯度弥散:由于sigmod函数在趋于无限大时,梯度会逐渐消失,随着传播深度的增加(如7层以上),残差传播到底层时已经变得太小,梯度的幅度也会急剧减小,导致浅层神经元的权重更新非常缓慢,无法有效进行学习
文档评论(0)