- 1、本文档共61页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
2013第二讲BP网络课件
人工神经网络及其应用 BP神经网络;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;*;P=-1:0.1:1;
T=[-0.96 0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201
-0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449
0.1816 -0.0312 -0.2183 -0.3201];
net=newff([-1,1],[7,1],{tansig,tansig})
net.trainParam.epochs=3000;
net=train(net,P,T);
P2=-1:0.025:1;
Y=sim(net,P2);
figure;
plot(P,T,+,P2,Y,o)
;*;*;*;*;*;*;*;*;*;*;*;*;*;*;P=-1:0.1:1;
T=[-0.96 0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201];
s=3:10;
res=1:8;
for i=1:8
net=newff(minmax(P),[s(i),1],{tansig,tansig})
net.trainParam.epochs=2000;
net.trainParam.goal=0.00001;
net=train(net,P,T);
y=sim(net,P);
error=y-T;
res(i)=norm(error);
end
P2=-1:0.025:1;
Y=sim(net,P2);
figure;
plot(P,T,P2,Y,o)
res =
1.1979 0.6250 0.6247 0.0173 0.0160 0.0145 0.9155 0.0144;;*;*;*;径向基函数RBF神经网络;*;对于单元输出表达式为
从径向基传输函数可以看出,只有在距离为0时,输出为1;对于给定的输入向量,径向基神经元根据各输入向量与神经元的权值的距离输出一个值,距离大的输入向量产生的输出值趋于0,距离小的输入向量的输出值趋于1,从而激活第二层线性神经元的输出权值。即隐层对输入信号的响应,只在函数的中央位置产生较大的输出,即局部响应,所以该网络具有很好的局部逼近能力。
;1)从函数逼近的观点看:若把网络看成是对未知函数的逼近,则任何函数都可以表示成一组基函数的加权和。在径向基网络中,相当于选择个隐层神经元的传输函数,使之构成一组基函数逼近未知函数。
2)从模式识别的观点看:总可以将低维空间非线性可分的问题映射到高维空间,使其在高维空间线性可分。只要隐层神经元的数目足够多,就可以使输入模式在隐层的高维输出空间线性可分。;泛化回归神经网络GRNN(generalized regression NN),常用于函数逼近,它具有一个径向基网络层和一个特殊的线性网络层。
其中nprod的方框实现LW与a的归一化点乘运算(以权值函数normprod完成)。
;概率神经网络PNN(probabilistic NN),常用于模式分类,它具有一个径向基网络层和一个竞争型网络层。
其中nprod的方框实现LW与a的归一化点乘运算(以权值函数normprod完成)。
第二层神经元数等于分类模式数,其权值为目标向量T,无阈值向量。第二层神经元的传输函数为竞争型传输函数,选择那些距离加权值最大的,作为网络的输出,即对输入向量最可能的模式分类结果。
;clear all;
p=-1:0.1:0.9;
t=[-0.832 -0.423 -0.024 0.344 1.282 3.456 4.02 3.232 2.102 1.504 0.248 1.242 2.344 3.262 2.052 1.684 1.022 2.224 3.022 1.984];
t1=clock;
net=newff([1,1],[15,1],{tansig,purelin},traingdx,learngdm);
net.trainParam.epochs=2500;
net.trainParam.goal=0.0
文档评论(0)