第四章神经网络的基本理论资料.ppt

第四章 神经网络的基本理论 δ学习规则 (1)选择一组初始权值wi(0)。 (2)计算某一输入模式对应的实际输出与期望输出的误差δ。 (3)如果δ小于给定值,结束,否则继续。 (4)更新权值(阈值可视为输入恒为1的一个权值): Δwi(t+1)= wi(t+1)- wi(t)=η[dj—oj]xi。 式中η为在区间(0,1)上的一个常数,称为学习步长,它的 取值与训练速度和w收敛的稳定性有关; 通常η不能太大,因为太大会影响wi(t)的稳定, η也不 能太小,因为太小会使wi(t)的收敛速度太慢; d、o为神经元的期望输出和实际输出;xi为神经元的第i个输入。 (5)返回(2),重复,直到对所有训练样本模式,网络输出 均能满足要求。 多层前馈网络与BP神经网络 学习的过程: 神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。 学习的本质: 对各连接权值的动态调整 学习规则: 权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。 学习的类型:有导师学习 核心思想: 将输出误差以某种形式通过隐层向输入层逐层反传 学习的过程: 信号的正向传播 误差的反向传播 正向传播: 输入样本---输入层---各隐层---输出层 判断是否转入反向传播阶段: 若输出层的实际输出与期望的输出(教师信号)不符 误差反传 误差以某种形式在各层表示----修正各层单元的权值 网络输出的误差减少到可接受的程度 进行到预先设定的学习次数为止 网络结构 输入层有n个神经元,隐含层有p个神经元, 输出层有q个神经元 变量定义 输入向量; 隐含层输入向量; 隐含层输出向量; 输出层输入向量; 输出层输出向量; 期望输出向量; 输入层与中间层的连接权值: 隐含层与输出层的连接权值: 隐含层各神经元的阈值: 输出层各神经元的阈值: 样本数据个数: 激活函数: 误差函数: 第一步,网络初始化 给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值 ε和最大学习次数M。 第二步,随机选取第 k个输入样本及对应期望输出 第三步,计算隐含层各神经元的输入和输出 第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数 。 第六步,利用输出层各神经元的 和隐含层各神经元的输出来修正连接权值 。 第七步,利用隐含层各神经元的 和输入层各神经元的输入修正连接权。 第八步,计算全局误差 第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。 非线性映射能力 能学习和存贮大量输入-输出模式映射关系,而无需事先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式对供网络进行学习训练,它便能完成由n维输入空间到m维输出空间的非线性映射。 泛化能力 当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。这种能力称为泛化能力。 容错能力 输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响很小. MATLAB中BP神经网络的重要函数和基本功能 MATLAB中BP神经网络的重要函数和基本功能 newff() 功能 建立一个前向BP网络 格式 net = newff(PR,[S1 S2...SN1],{TF1 TF2...TFN1},BTF,BLF,PF) 说明 net为创建的新BP神经网络;PR为网络输入取向量取值范围的矩阵;[S1 S2…SNl]表示网络隐含层和输出层神经元的个数;{TFl TF2…TFN1}表示网络隐含层和输出层的传输函数,默认为‘tansig’;BTF表示网络的训练函数,默认为‘trainlm’;BLF表示网络的权值学习函数,默认为‘learngdm’;PF表示性能数,默认为‘mse’。 MATLAB中BP神经网络的重要函数和基本功能 tansig() 功能 正切sigmoid激活函数 格式 a = tansig(n) 说明 双曲正切Sigmoid函数把神经元的输入范围从(-∞,+∞)映射到(-1,1)。它是可导函数,适用于BP训练的神经元。 logsig() 功能 对数Sigmoid激活函数 格式 a = logsig(N) 说明对数Sigmoid函数把神经元的输入范围从(-∞,+∞)映射到(0,1)。它是可导函数,适用于BP训练的神经元。 例2-3,下表为某药品的销售情况,现构建一个如下的三层

文档评论(0)

1亿VIP精品文档

相关文档