BP神经网络理论基础介绍教学教材.ppt

  1. 1、本文档共73页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
BP神经网络理论基础介绍教学教材.ppt

无导师学习(Unsupervised Learning)与无导师训练(Unsupervised Training)相对应 抽取样本集合中蕴含的统计特性,并以神经元之间的联接权的形式存于网络中。 * * 无导师学习 有导师学习(Supervised Learning)与有导师训练(Supervised Training)相对应。 输入向量与其对应的输出向量构成一训练。 有导师学习的训练算法的主要步骤包括: 1)? 从样本集合中取一个样本(Ai,Bi); 2)? 计算出网络的实际输出O; 3)? 求D=Bi-O; 4)? 根据D调整权矩阵W; 5) 对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。 * * 有导师学习 Widrow和Hoff的写法: Wij(t+1)=Wij(t)+α(yj- aj(t))oi(t) 也可以写成: Wij(t+1)=Wij(t)+Wij(t) Wij(t)=αδjoi(t) δj=yj- aj(t) Grossberg的写法为: Wij(t)=αai(t)(oj(t)-Wij(t)) 更一般的Delta规则为: Wij(t)=g(ai(t),yj,oj(t),Wij(t)) * * Delta规则 1 概述 2 基本BP算法 3 算法的改进 4 算法的实现 5 算法的理论基础 6 几个问题的讨论 * * BP网络 1、BP算法的出现 非循环多级网络的训练算法 UCSD PDP小组的Rumelhart、Hinton和Williams1986年独立地给出了BP算法清楚而简单的描述 1982年,Paker就完成了相似的工作 1974年,Werbos已提出了该方法 2、弱点:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛。 3、优点:广泛的适应性和有效性。 * * 一 概述 4、BP网络主要用于 1)函数逼近:用输入向量和相应的输出向量训练一个网络逼近一个函数。 2)模式识别:用一个特定的输出向量将它与输入向量联系起来。 3)分类:把输入向量 以所定义的合适方式进行分类。 4)数据压缩:减少输出向量维数以便于传输或存储。 * * 概述 1 网络的构成 神经元的网络输入: neti=x1w1i+x2w2i+…+xnwni 神经元的输出: * * 二 基本BP算法 应该将net的值尽量控制在收敛比较快的范围内 可以用其它的函数作为激活函数,只要该函数是处处可导的 * * 输出函数分析 ??0.5 f ′(net) 0.25 o 0 1 ? 1 (0,0.5) ?net (0,0) o * * 网络的拓扑结构 x1 o1 输出层 隐藏层 输入层 x2 o2 om xn … … … … … … … W(1) W(2) W(3) W(L) BP网的结构 输入向量、输出向量的维数、网络隐藏层的层数和各个隐藏层神经元的个数的决定 实验:增加隐藏层的层数和隐藏层神经元个数不一定总能够提高网络精度和表达能力。 BP网一般都选用二级网络。 * * 网络的拓扑结构 * * 网络的拓扑结构 x1 o1 输出层 隐藏层 输入层 x2 o2 om xn … … … … W V 样本:(输入向量,理想输出向量) 权初始化:小随机数与饱和状态;不同保证网络可以学。 1、向前传播阶段: (1)从样本集中取一个样本(Xp,Yp),将Xp输入网络; (2)计算相应的实际输出Op: Op=Fl(…(F2(F1(XpW(1))W(2))…)W(L)) * * 2 训练过程概述 2、向后传播阶段 误差传播阶段: (1)计算实际输出Op与相应的理想输出Yp的差; (2)按极小化误差的方式调整权矩阵。 (3)网络关于第p个样本的误差测度: * * 2 训练过程概述 (4) 网络关于整个样本集的误差测度: * * 3 误差传播分析 1、输出层权的调整 wpq= wpq+?wpq ?wpq=αδqop =αfn′ (netq)(yq-oq)op =αoq(1-oq) (yq-oq)op wpq ANp ANq 第L-1层 第L层 wpq * * 2、隐藏层权的调整 ? ANp ANq ANh vhp δpk-1 δ1k wp1 wpq δqk wpm δmk 第k-2层 第k层 第k-1层 … … * * 2、隐藏层权的调整 δpk-1的值和δ1k,δ2k, ,δmk 有关 不妨认为δpk-1 通过权wp1对δ1k做出贡献, 通过权wp2对δ2k做出贡献, 通过权wpm对δmk做出贡献。 δpk-1= fk-1′(netp) (wp1δ1k+ wp2δ2k+…+ wpmδm k) vhp=vhp+?vhp vhp=αδpk-1ohk-2 =αf

文档评论(0)

youngyu0329 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档