软测量要点解读.ppt

  ② 训练样本数必须多于网络模型的连接权数,前者一般是后者的2~10倍;否则,样本必须分成几部分并采用“轮流训练”的方法才可能得到可靠的神经网络模型。    总之,若隐层节点数太少,网络可能根本不能训练或网络性能很差;若隐层节点数太多,虽然可使网络的系统误差减小, 但一方面使网络训练时间延长,另一方面,训练容易陷入局部极小点而得不到最优点,也是训练时出现“过拟合”的内在原因。因此,合理隐层节点数应在综合考虑网络结构复杂程度和误差大小的情况下用节点删除法和扩张法确定。   3) 神经网络的训练   (1) 训练。BP网络的训练就是通过应用误差反传原理不断调整网络权值,使网络模型输出值与已知的训练样本输出值之间的误差平方和达到最小或小于某一期望值。虽然理论上早已证明具有1个隐层(采用Sigmoid转换函数)的BP网络可实现对任意函数的任意逼近,但遗憾的是,迄今为止还没有构造性结论, 即在给定有限个(训练)样本的情况下,如何设计一个合理的BP网络模型并通过向所给的有限个样本的学习(训练)来满意地逼近样本所蕴含的规律(函数关系, 不仅仅是使训练样本的误差达到很小)的问题,目前在很大程度上还需要依靠经验。因此,通过训练样本的学习(训练)建立合理的BP神经网络模型的过程,在国外被称为“艺术创造的过程”, 是一个复杂而又十分烦琐和困难的过程。   (2) 学习率和冲量系数。学习率会影

文档评论(0)

1亿VIP精品文档

相关文档