- 3
- 0
- 约3.11千字
- 约 57页
- 2017-04-25 发布于湖北
- 举报
2015_4.2BP网络设计及实例教程
第四章 BP网络(2);4.6.1 网络的层数
4.6.2 隐含层神经元数
4.6.3 初始权值的选取
4.6.4 学习速率
4.6.5 期望误差的选取
4.6.6 应用举例
4.6.7 局限性;理论上已经证明:具有偏差和至少一个S型隐含层加上一个线性输出层的网络,能够逼近任何有理函数
定理:
增加层数主要可以进一步的降低误差,提高精度,但同时也使网络复杂化,从而增加了网络权值的训练时间。
一般情况下应优先考虑增加隐含层中神经元数
仅用具有非线性激活函数的单层网络来解决问题没有必要或效果不好
线性问题
非线性问题;网络训练精度的提高,可以通过采用一个隐含层,而增加其神经元数的方法来获得。这在结构实现上,要比增加更多的隐含层简单得多
定理:
实现任意N个输入向量构成的任何布尔函数的前向网络所需权系数数目为
在具体设计时,比较实际的做法是通过对不同神经元数进行训练对比,然后适当地加上一点余量;一般取初始权值在(-1,1)之间的随机数
威得罗等人在分析了两层网络是如何对一个函数进行训练后,提出一种选定初始权值的策略
选择权值的量级为
在MATLAB工具箱中可采用函数nwlog.m或nwtan.m来初始化隐含层权值W1和B1。
其方法仅使用在第一隐含层的初始值的选取上,后面层的初始值仍然采用随机取数;学习速率决定每一次循环训练中所产生的权值变化量
大的学习速率可能导致系统的不稳定
小
原创力文档

文档评论(0)