bp神经网络算法原理资料.pdfVIP

  • 11
  • 0
  • 约2.21万字
  • 约 26页
  • 2021-04-03 发布于湖南
  • 举报
BP 神 经 网 络 算 法 原 理 精品文档 i BP 网络模型处理信息的基本原理是:输入信号 X 通过中间节点(隐层点)作 用于输出节点,经过非线形变换,产生输出信号 Y k ,网络训练的每个样本包括 输入向量 X 和期望输出量 t ,网络输出值 Y 与期望输出值 t 之间的偏差,通过调 整输入节点与隐层节点的联接强度取值 Wij 和隐层节点与输出节点之间的联接 强度 Tjk 以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误 差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网 络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信 息。 一 BP 神经网络模型 BP 网络模型包括其输入输出模型、作用函数模型、误差计算模型和自学习模 型。 (1)节点输出模型 j ij i j 隐节点输出模型: O =f( ∑W ×X -q ) (1) 输出节点输出模型: Y k jk j k =f( ∑T ×O -q ) (2) f- 非线形作用函数; q - 神经单元阈值。 (2)作用函数模型 作用函数是反映下层输入对上层节点刺激脉冲强度的函数又称刺激函数,一般 取为 (0,1) 内连续取值 Sigmoid 函 数: f(x)=1/(1+e - x ) (3) (3)误差计算模型 收集于网络,如有侵权请联系管理员删除 精品文档 误差计算模型是反映神经网络期望输出与计算输出之间误差大小的函数: E p=1/2 ×∑(t pi - 2 Opi ) (4) t pi - i 节点的期望输出值; Opi -i 节点计算输出值。 (4)自学习模型 ij 的设定和 神经网络的学习过程,即连接下层节点和上层节点之间的权重拒阵 W 误差修正过程。 BP网络有师学习方式 - 需要设定期望值和无师学习方式 - 只需输 入模式之分。自学习模型为 △W ij (n+1)= h ×Фi ×Oj +a×△Wij (n) (5) h - 学习因子; Фi - 输出节点 i 的计算误差; Oj - 输出节点 j 的计算输出; a- 动量 因子。 二 BP 网络模型的缺陷分析及优化策略 (1)学习因子 h 的优化 采用变步长法根据输出误差大小自动调整学习因子,来减少迭代次数和加快收 敛速度。 h =h +a ×(Ep(n) - E p(n-1) )/ E p(n) a 为调整步长, 0~1 之间取值 (6 ) (2)隐层节点数的优化 隐 节点数的多少对网络性能的影响较大,当隐节点数太多时,会导 致网络学习时间过长,甚至不能收敛;而当隐节点数过小时,网络的容错能力 差。利用逐步回归分析 法并进行参数的显著性检验来动态删除一些线形相关的 隐节点,节点删除标准:当由该节点出发指向下一层节点的所有权值和阈值均 落于死区(通常取 ±0.1 、±0.05 等区

文档评论(0)

1亿VIP精品文档

相关文档