第四章人工神经元网络模型03130.pptVIP

  • 41
  • 0
  • 约5.79千字
  • 约 56页
  • 2017-01-03 发布于重庆
  • 举报
第四章 人工神经元网络模型          4)计算广义误差。 输出层广义误差: 隐含层广义误差: 误差反向传播 5)连接权系数更新 继续迭代计算直至满足终止条件为止 例如: 例4-2 利用多层前向传播神经网络逼近非线性函数 解 ①训练算法采用传统的BP学习算法,其中样本集取20点 即 期望值: 选择多层前向网络结构为:1个输入神经元、6个隐含层神经元和1个输出神经元(隐层数为1)。 神经元激励函数都为Sigmoid函数。 图4-16 多层前向传播网络结构图 初始权系数阵由(0,1)之间的随机数组成。 学习步长 前向计算 误差反向传播 学习方式是批量学习还是单样本学习? 计算过程: ② 选择30个校验样本数据集,它们的取值为 为了验证含多隐含层的前向传播网络的逼近性能,对含有两个隐含层的多层前向网络进行了仿真试验。取第一隐含层的隐含神元经数为4、第二隐含层的隐含神元经数为2。 图4-16 b) 多层前向传播网络结构 均方误差 均方误差 y y 图4-17 两种MLP模型的学习曲线和网络的逼近测试图(比较) BP算法的学习曲线 网络的测试集逼近性能 系统的实际输出(如虚线所示) 神经网络的逼近输出(如实线所示) 结论:增加隐含层的数目并不一定意味着能够改善逼近精度(隐含层越多,计算量越大,收敛速度就受影响——慢)。对于本例而言,这一非线性函数的神经网络逼近问题用单

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档