- 9
- 0
- 约8.62千字
- 约 56页
- 2017-06-16 发布于贵州
- 举报
第9章人工神经络
而其中的 所以, 最速下降法,要求E的极小点 Wij=表示第k-1层神经元i与第k层第j个神经元j之间的连接权重。 netj表示第k层神经元j的总输入 Oi表示第k-1层神经元的输出 令 所以Δwij=αδjoi α为学习率 每次训练时,为已知 要确定ΔWij 关键是确定此值 问题转化成如何求得网络中各神经元j的 情况1:ANj为输出层神经元 oj=f(netj) 容易得到 从而 的问题转化成确定 所以, 故,当ANj为输出层的神经元时,它对应的联接权wij应该按照下列公式进行调整: 情况2:ANj为隐藏层神经元 函数 而 其中,Ok是Oj(隐含层神经元j的输出)的函数。 netk= oj … o2 o1 oHh netk是 oj下一级的神经元的网络输入 j神经元的输出为K层的输入,即K为j神经元所在层的下一层。 所以, 而 于是, 或 于是 也就是说,对于隐含层H的神经元j来说,将所有与之相连的输出神经元(或者是下一层的隐含层的神经元)k输出端的误差乘以对应的权值wjk,并求和,作为隐含层神经元j的输出误差。所以这个过程也成为“误差反向传播”。 图9.11 B-P学习算法的流程图 B-P算法的优缺点: 优点:理论基础牢固,推导过程严谨,物理概念清晰,通用性好等。所以,它是目前用来训练前向多层网络较好的算法。 缺点: (1)该学习算法的收敛速度慢;(2)网络中隐节
原创力文档

文档评论(0)