- 1、本文档共6页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
PAGE
PAGE 2
1、BP网络构建
(1)生成BP网络
:由维的输入样本最小最大值构成的维矩阵。
:各层的神经元个数。
:各层的神经元传递函数。
:训练用函数的名称。
(2)网络训练
(3)网络仿真
BP网络的训练函数
训练方法
训练函数
梯度下降法
traingd
有动量的梯度下降法
traingdm
自适应lr梯度下降法
traingda
自适应lr动量梯度下降法
traingdx
弹性梯度下降法
trainrp
Fletcher-Reeves共轭梯度法
traincgf
Ploak-Ribiere共轭梯度法
traincgp
Powell-Beale共轭梯度法
traincgb
量化共轭梯度法
trainscg
拟牛顿算法
trainbfg
一步正割算法
trainoss
Levenberg-Marquardt
trainlm
BP网络训练参数
训练参数
参数介绍
训练函数
net.trainParam.epochs
最大训练次数(缺省为10)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.goal
训练要求精度(缺省为0)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.lr
学习率(缺省为0.01)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.max_fail
最大失败次数(缺省为5)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.min_grad
最小梯度要求(缺省为1e-10)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.show
显示训练迭代过程(NaN表示不显示,缺省为25)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.time
最大训练时间(缺省为inf)
traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm
net.trainParam.mc
动量因子(缺省0.9)
traingdm、traingdx
net.trainParam.lr_inc
学习率lr增长比(缺省为1.05)
traingda、traingdx
net.trainParam.lr_dec
学习率lr下降比(缺省为0.7)
traingda、traingdx
net.trainParam.max_perf_inc
表现函数增加最大比(缺省为1.04)
traingda、traingdx
net.trainParam.delt_inc
权值变化增加量(缺省为1.2)
trainrp
net.trainParam.delt_dec
权值变化减小量(缺省为0.5)
trainrp
net.trainParam.delt0
初始权值变化(缺省为0.07)
trainrp
net.trainParam.deltamax
权值变化最大值(缺省为50.0)
trainrp
net.trainParam.searchFcn
一维线性搜索方法(缺省为srchcha)
traincgf、traincgp、traincgb、trainbfg、trainoss
net.trainParam.sigma
因为二次求导对权值调整的影响参数(缺省值5.0e-5)
trainscg
net.trainParam.lambda
Hessian矩阵不确定性调节
文档评论(0)