- 1
- 0
- 约4.02千字
- 约 18页
- 2017-09-19 发布于江苏
- 举报
笔记 #1: 神经网络
反向传播学习算法
N(x)=S(y)=( S1(y1), S2(y2),, …, Sp(yp) ); S(?): 非线性方程.
x 和 y 是 (1xn) 和 (1xp) 矢量.
d 是需要的输出, (1xp) 矢量.
e 是误差信号, (1xp) 矢量..
迭代k,
ek=dk – N(xk)
= dk – S(yk)
=[ (d1k – S(y1k), … , (dpk – S(ypk) )
即时方均差的总计:
此误差在迭代k时产生的.
总误差
nT : 数据对总的误差, (x1,d1; …; x nT,d nT).
反向传播学习算法使 在每次迭代减到最小.
这表明它也使 E变得最小?
如果 每个回合的E被减到最小,我们预期 E 也被减到最小.
例如:
n=2, p=2, 也就是两个输入, 两个输出.
y1=m11S1(x1) + m21S2(x2)
y2=m12S1(x1) + m22S2(x2)
在这个假定下, Si(x)= S (x),非线性是相同的.
[y1 y2] = [S(x1) S(x2)]
=[S(x1) S(x2)] ?
实际的网络输出:
[S(y1) S(y2)]S(y)=N(x) 误差: e1=d1- S(y1) , e2=d2- S(y2)
= 是唯一的变量, 然后我们必须将有关这
原创力文档

文档评论(0)