- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
MATLAB神经网络实验会计学第1页/共22页神经元模型Neuron Model: 多输入,单输出,带偏置输入:R维列向量权值:R维行向量阈值:标量求和单元传递函数输出第2页/共22页常用传递函数阈值函数MATLAB函数: hardlima1-bWp-1MATLAB函数: hardlimsan第3页/共22页线性函数Purelin Transfer Function :MATLAB函数: purelin第4页/共22页Sigmoid函数对数Sigmoid函数Sigmoid Function :特性:值域a∈(0,1)非线性,单调性无限次可微|n|较小时可近似线性函数|n|较大时可近似阈值函数正切Sigmoid函数MATLAB函数: logsig(对数), tansig(正切)第5页/共22页 前馈神经网络前馈神经网络(feed forward NN):各神经元接受前级输入,并输出到下一级,无反馈,可用一有向无环图表示。前馈网络通常分为不同的层(layer),第i层的输入只与第i-1层的输出联结。可见层:输入层(input layer)和输出层(output layer)隐藏层(hidden layer) :中间层第6页/共22页BP网络 多层前馈网络 传递函数:隐层采用S形函数,输出层S形函数或线性函数 主要功能: 函数逼近, 模式识别, 信息分类第7页/共22页BP网络的生成newff函数newff用来生成一个BP网络net=newff(PR,[S1 S2...SN],{TF1 TF2... TFN},BTF,BLF,PF)PR: 一个R×2矩阵, 由R维输入向量的每维最小值和最大值组成Si: 第i层的神经元个数TFi: 第i层的传递函数, 默认为tansigBTF: 训练函数, 默认为trainlmBLF: 学习函数, 默认为learngdmPF: 性能函数, 默认为msenet=newff([0,10;-1,2],[5,1],{‘tansig’,’purelin’},’trainlm’); %生成一个两层BP网络,隐层和输出层神经的个数为5和1, 传递函数分别为tansig和purelin, 训练函数为trainlm, 其他默认第8页/共22页BP网络的初始化 newff 函数在建立网络对象的同时, 自动调用初始化函数, 根据缺省的参数设置网络的连接权值和阈值. 使用函数init可以对网络进行自定义的初始化. 通过选择初始化函数, 可对各层连接权值和阈值分别进行不同的初始化.第9页/共22页BP网络的学习规则 权值和阈值的调节规则采用误差反向传播算法(back propagation). 反向传播算法分二步进行,即正向传播和反向传播。 1.正向传播 输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比较,如果现行输出不等于期望输出,则进入反向传播过程。2.反向传播 反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个隐层的各个神经元的权系数进行修改,以望误差信号趋向最小。BP算法实质是求取误差函数的最小值问题。这种算法采用非线性规划中的最速下降方法,按误差函数的负梯度方向修改权系数。第10页/共22页BP网络的快速学习算法与选择 MATLAB神经网络工具箱对常规BP算法进行改进,提供了一系列快速算法,以满足不同问题的需要学习算法适用问题类型收敛性能占用存储空间其他特点trainlm函数拟合收敛快,误差小大性能随网络规模增大而变差trainrp模式分类收敛最快较小性能随网络训练误差减小而变差trainscg函数拟合模式分类收敛较快性能稳定中等尤其适用于网络规模较大的情况trainbfg函数拟合收敛较快较大计算量岁网络规模的增大呈几何增长traingdx模式分类收敛较慢较小适用于提前停止的方法第11页/共22页BP网络的训练 利用已知的”输入—目标”样本向量数据对网络进行训练,采用train 函数来完成. 训练之前, 对训练参数进行设置net = train(net, P, T) 训练参数 参数含义 默认值net.trainParam.epochs训练步数100net.trainParam.show显示训练结果的间隔步数25net.trainParam.goal训练目标误差0net.trainParam.time训练允许时间INfnet.trainParam.lr学习率0.01第12页/共22页BP网络的设计(1)网络层数 已经证明,单隐层的BP网络可以实现任意非线性映射. BP网络的隐层数一般不超过两层.输入层的节点数 输入层接收外部的输入数据, 节点数取决于输入向量的维数输
文档评论(0)