ch4神经网络模型及仿真教案解析.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
anew = 1.0e+04 * 3.8971 3.8193 2.2431 2.2473 nntool命令产生神经网络图形交互界面如下 二、 神经网络交互式界面 3. 人工神经元模型的数学表达二 1949年,心理学家D.O.Hebb最早提出了关于神 经网络学习机理的“突触修正”的假设。该假设 指出,当神经元的突触前膜电位与后膜电位同时 为正时,突触传导增强,当前膜电位与后膜电位 正负相反时,突触传导减弱,也就是说,当神经 元i与神经元j同时处于兴奋状态时,两者之间的连 接强度应增强。根据该假设定义的权值调整方法, 称为Hebbian学习规则。 * * 3、函数purelin——线性激励函数 其使用格式为: A=purelin(N) info=purelin(code) 其中,N为Q个S维的输入列向量;A为函数返回值,A=N;info=tansig(code)根据code值不同返回不同的信息(同函数logsig) 4.2.3 BP网络学习函数(训练函数) 函数名 功能 函数名 功能 traingd 梯度下降法 traincgf PR共轭梯度法 traingdm 势能修正法 traincgp PB共轭梯度法 traingdx 自调整学习效率法 traincgb 标量共轭梯度法 trainrp 恢复BP法 trainscg FR共轭梯度法 trainbfg BFGS拟牛顿法 trainlm LM法 trainoss 一步共轭 + 拟牛顿 trainbr Bayesian规范法 常见学习函数 1、函数learngd 函数learngd是梯度下降法学习函数,视同输入和误差,以及权值和阈值的学习速率计算权值或阈值的变化率。其使用格式为: [dW,LS]=learngd(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) [db,LS]=learngd(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS) 其中,W为S×R为的权值矩阵;b为S维的阈值向量;P为Q组R维的输入向量;ones(1,Q)为产生一个Q维的输入向量;Z为Q组S维的加权输入向量;N、A分别为Q组S维的输入、输出向量;T、E分别为Q组S维的层目标向量、层误差向量;gW、gA分别为与性能相关的S×R的维梯度、维输出梯度;D为S×S维的神经元距离矩阵;LP为学习参数,通过其设置学习速率,设置格式为LP.lr=0.001;LS为学习状态,初始状态下为空;dW为S×R维的权值或阈值变化率矩阵;db为S维的阈值变化率向量;ls为新的学习状态 2、函数learngdm 函数learngdm为梯度下降动量学习函数,其使用格式为: [dW,LS]=learngdm(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) [db,LS]=learngdm(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS) 其中各参数的含义与函数learngd相同。 动量常熟mc是通过学习参数LP设置的,格式为LP.mc=0.8。 4.2.4 BP网络训练函数 1、函数trainbfg 函数trainbfg为BFGS准牛顿BP算法函数,除BP网络外,该函数也可以训练任意形式的神经网络,其使用格式为: [net,TR,Ac,E1]=trainbfg(NET,Pd,T1,Ai,Q,TS,VV,TV) 其中,NET为待训练的神经网络;Pd为有延迟的输入向量;T1为层次目标向量;Ai为初始的延迟条件;Q为批量;TS为时间步长;VV用于确认向量结构或者为空;TV用于检验向量结构或者为空;net为训练后的神经网络;TR为每步训练的有信息记录,包括:TR.epoch——时刻点,TR.perf——训练性能,TR.vperf——确认性能,TR.tperf——检验性能;Ac为上一步训练中聚合层的输出;E1为上一步训练中的层次误差。 BP网络默认训练参数 参数名 功能 缺省值 net.trainParam.goal 目标函数设定值 0 net.trainParam.epochs 最大迭代次数 100 net.trainParam.show 显示中间结果的周期 25 net.trainParam.time 训练时间,inf表示训练时间不限 inf net.trainParam.lr 整批学习的学习效率 0.01 net.trainParam.mc 势能学习规则traingdm的势能率 0.9 net.trainParam.min_grad 最小性能梯度 1e-6 net.trainParam.max_fail 最大确认失败次数 5 2、函数traingd 函数

文档评论(0)

我是兰花草 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档