MATLAB程序代码--bp神经网络通用代码.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
实用标准文案 MATLAB程序代码 --bp 神经网络通用代码 matlab 通用神经网络代码学习 了一段时间的神经网络 , 总结了一些经验 , 在这愿意和大家分享一下 , 希望对大家有帮助 , 也希望大家可以把其他神经网络的通用代码在这一起分享 感应器神经网络、线性网络、 BP神经网络、径向基函数网络 %通用感应器神经网络。 P=[-0.5 -0.5 0.3 -0.1 -40;-0.5 0.5 -0.5 1 50];% 输入向量 T=[1 1 0 0 1];% 期望输出 plotpv(P,T);% 描绘输入点图像 net=newp([-40 1;-1 50],1);% 生成网络,其中参数分别为输入向量的范围和神经元感应器数量 hold on linehandle=plotpc(net.iw{1},net.b{1}); net.adaptparam.passes=3; for a=1:25% 训练次数 [net,Y,E]=adapt(net,P,T); linehandle=plotpc(net.iw{1},net.b{1},linehandle); drawnow; end %通用 newlin 程序 %通用线性网络进行预测 time=0:0.025:5; T=sin(time*4*pi); Q=length(T); P=zeros(5,Q);%P 中存储信号 T 的前 5( 可变,根据需要而定 ) 次值,作为网络输入。 精彩文档 实用标准文案 P(1,2:Q)=T(1,1:(Q-1)); P(2,3:Q)=T(1,1:(Q-2)); P(3,4:Q)=T(1,1:(Q-3)); P(4,5:Q)=T(1,1:(Q-4)); P(5,6:Q)=T(1,1:(Q-5)); plot(time,T)% 绘制信号 T 曲线 xlabel( 时间 ); ylabel( 目标信号 ); title( 待预测信号 ); net=newlind(P,T);% 根据输入和期望输出直接生成线性网络 a=sim(net,P);% 网络测试 figure(2) plot(time,a,time,T,+) xlabel( 时间 ); ylabel( 输出 - 目标 +); title( 输出信号和目标信号 ); e=T-a; figure(3) plot(time,e) hold on plot([min(time) max(time)],[0 0],r:)% 可用 plot(x,zeros(size(x)),r:) 代替 hold off xlabel( 时间 ); ylabel( 误差 ); 精彩文档 实用标准文案 title( 误差信号 ); %通用 BP神经网络 P=[-1 -1 2 2;0 5 0 5]; t=[-1 -1 1 1]; net=newff(minmax(P),[3,1],{tansig,purelin},traingd); %输入参数依次为 : 样本 P 范围 ,[ 各层神经元数目 ],{ 各层传递函数 }, 训练函数 %训练函数 traingd-- 梯度下降法,有 7 个训练参数 . %训练函数 traingdm-- 有动量的梯度下降法 , 附加 1 个训练参数 mc(动量因子,缺省为 0.9) %训练函数 traingda-- 有自适应 lr 的梯度下降法 , 附加 3 个训练参数 :lr_inc( 学习率增长比, 缺省为 1.05; % lr_dec( 学习率下降比,缺省为 0.7);max_perf_inc( 表现函数增加 最大比,缺省为 1.04) %训练函数 traingdx-- 有动量的梯度下降法中赋以自适应 lr 的方法,附加 traingdm 和 traingda 的 4 个附加参数 %训练函数 trainrp-- 弹性梯度下降法 , 可以消除输入数值很大或很小时的误差,附加 4 个训练参数 : % delt_inc( 权值变化增加量, 缺省为 1.2);delt_dec( 权值变化减小量, 缺省 为 0.5); % delta0( 初始权值变化,缺省为 0.07);deltamax( 权值变化最大值 , 缺省为 50.0) % 适合大型网络 %训练函数 traincgf--Fletcher-Reeves 共轭梯度法 ; 训练函数 traincgp--Polak-Ribiere 共轭梯度 法; %训练函数 traincgb--Powell-Beale 共轭梯度法 %共轭梯度法占用存储空间小 , 附加 1 训练参数 searchFcn( 一维线性搜索方法 , 缺省为 srchcha); 缺少 1 个训练参数 lr 精彩文档 实用标准文案 %训练函数 trainscg-- 量化共轭梯度法 ,

文档评论(0)

150****0902 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档