网站大量收购独家精品文档,联系QQ:2885784924

深度学习案例教程 课件5.2反向传播算法.pptx

深度学习案例教程 课件5.2反向传播算法.pptx

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

第二节反向传播算法反向传播(BackPropagation,BP)算法是一种高效地在所有参数上使用梯度下降算法的方法。前向传播可以概括为输入经过神经网络的处理,最终产生输出在训练过程中,前向传播会产生一个损失函数;反向传播则允许来自损失函数的信息通过网络向后流动,以便计算梯度。反向传播算法定义

第二节反向传播算法神经网络模型之所以不能直接应用梯度下降算法进行训练,主要有以下两个原因。(1)梯度下降可以应对带有明确求导函数的情况,或者说可以求出误差的情况。(2)对于多层神经网络,隐藏层的误差是不存在的,因此不能直接对它应用梯度下降,要先将误差反向传播至隐藏层,然后应用梯度下降。反向传播算法定义

反向传播算法距离第1层是输入层,包含一个神经元x,权值和偏置分别是w1和b1。第2层是隐藏层,包含一个神经元h1,权值和偏置分别是w2和b2。第3层是输出层a,这里的激活函数默认为Sigmoid函数。第二节反向传播算法

前向传播输入层到隐藏层:计算神经元x的输入加权和,再采用Sigmoid激活函数,得到h1的输出值。隐藏层到输出层:将h1的输出a1再进行加权求和,然后采取Sigmoid激活,得至输出值a2。建立损失函数。我们得到了输出值a2,但它与真实值y还相差很远,所以需要对二者的误差建立损失函数。反向传播的计算过程第二节反向传播算法

步骤1:计算总误差。这里只有一个输出,因此只需要计算真实值和输出值之间的差异即可。反向传播的计算过程第二节反向传播算法

步骤2:隐藏层到输出层的权值更新。以权重参数w2为例,如果想知道对整体误差产生了多少影响,可以用整体误差对此求偏导得出(应用链式法则)。反向传播的计算过程第二节反向传播算法

反向传播算法步骤3:输入层到隐藏层的权值更新。以对权值w1的更新为例,其计算方法和步骤2差不多,应用链式法则可得出:反向传播的计算过程

BP算法的基本工作原理,简单概括就是先向前计算得到输出值,然后反向传播更新参数,最后得到损失函数最小时的参数作为最优学习参数。简单概括第二节反向传播算法

文档评论(0)

xiaobao + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档