神经网络控制(中文).docVIP

  • 1
  • 0
  • 约4.02千字
  • 约 18页
  • 2017-09-19 发布于江苏
  • 举报
笔记 #1: 神经网络 反向传播学习算法 N(x)=S(y)=( S1(y1), S2(y2),, …, Sp(yp) ); S(?): 非线性方程. x 和 y 是 (1xn) 和 (1xp) 矢量. d 是需要的输出, (1xp) 矢量. e 是误差信号, (1xp) 矢量.. 迭代k, ek=dk – N(xk) = dk – S(yk) =[ (d1k – S(y1k), … , (dpk – S(ypk) ) 即时方均差的总计: 此误差在迭代k时产生的. 总误差 nT : 数据对总的误差, (x1,d1; …; x nT,d nT). 反向传播学习算法使 在每次迭代减到最小. 这表明它也使 E变得最小? 如果 每个回合的E被减到最小,我们预期 E 也被减到最小. 例如: n=2, p=2, 也就是两个输入, 两个输出. y1=m11S1(x1) + m21S2(x2) y2=m12S1(x1) + m22S2(x2) 在这个假定下, Si(x)= S (x),非线性是相同的. [y1 y2] = [S(x1) S(x2)] =[S(x1) S(x2)] ? 实际的网络输出: [S(y1) S(y2)]S(y)=N(x) 误差: e1=d1- S(y1) , e2=d2- S(y2) = 是唯一的变量, 然后我们必须将有关这

文档评论(0)

1亿VIP精品文档

相关文档