06人工神经网络(ANN)方法简介.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
误差的后向传播 多层前向网的学习原理:基于适当定义的误差函数,在网络中调整权重矩阵和阈值等参数,使得误差函数极小化。 与单层前向网和感知器相比较,多层前向网由于隐层的存在,无法判别隐层神经元对输入误差的直接影响(无法知道隐层神经元的理想输出值)。因此,对参数权重矩阵和阈值的调整遇到困难。 1 2 M 2 1 ?x1 N ?y1 1 2 c ?y2 ?yc ?W(1) ?W(2) 输入层 (X) 隐层 (Z) 输出层 (Y) ?x2 ?xN 解决方案——计算两个传播方向: “前向传播(Forward propagation)”:输入{xi}进入网络,按照信息在网络中前进移动的方向,逐次计算aj,zj直至输出{yk}的过程;(输入向输出方向的前向传播) “后向传播(Back propagation)”:利用输出层的误差来估计输出层的直接前导层的误差,再依次估计更前一层的误差,获得所有各层的误差估计。(输出误差向输入方向的后向传播)(Rumelhart, Hinton Williams, 1986) 1 2 M 2 1 ?x1 N ?y1 1 2 c ?y2 ?yc ?W(1) ?W(2) 输入层 (X) 隐层 (Z) 输出层 (Y) ?x2 ?xN 设学习集有T个样本,记为{x?, t?},? =1, 2, …, T,其中: 输入 理想输出 计算实际输出,记为: 实际输出 显然有: 因此只需讨论某一个样本点的误差传播,以下略去上标? 。 故误差函数为: 已知下列记号: 又定义第k个输出神经元和第j个隐层神经元的误差率为: 输出层误差率 隐层误差率 由微分链式法则,计算可得: 输出层误差率 隐层误差率 因此,得到: 梯度法求解wij(l) 取步长因子为固定步长?,得到学习规则: 其中?k(2)、?k(1)均与?有关,k=1,2,…,c;j=0, 1,…,M;i=0, 1, …, N。 补充:梯度法求解优化问题 已知D ? Rn是一个凸集。求解无约束优化问题 就是寻求x* ? D使得 若f (x)为连续可微凸函数,问题归结为求解 可运用Newton迭代法数值求解。 (但f (x) 的凸性难以保证,求解也非常困难……) 构造逐次使目标函数值下降的搜索算法: 满足: ?k0:步长因子 BP学习算法的实现 设学习集有T个样本,记为{x?, t?},? =1, 2, …, T,其中: 输入 理想输出 又设k=1,2,…,c;j=0, 1,…,M;i=0, 1, …, N。对于给定的? =1, 2, …, T,指标?仍然不标出。 STEP 1 初始化权重矩阵和阈值wji(1)(0)、 wkj(2)(0) (已包含阈值),选择学习效率?。 STEP 2 设第t次迭代值wji(1)(t)、 wkj(2)(t)已知, (1)前向过程:对? =1, 2, …, T,依次计算: (2)后向过程:利用公式 对? =1, 2, …, N,依次计算 STEP 2 设第t次迭代值wji(1)(t)、 wkj(2)(t)已知, . . . (3)迭代过程:计算第t +1次权重矩阵 STEP 3 由此得到序列 满足 直至满足停机准则(满足某种优化准则,或者迭代次数) BP学习算法的例子 考虑某双层前向网,设激活函数为: 误差函数为: 注意到: 激活函数?为符号函数: 1 -1 u ? 激活函数?为分段线性函数: 1 -1 u ? 激活函数?为Sigmoid函数,其特点是单调递增、光滑且具有渐近值,具有解析上的优点和神经生理学特征。 ? 1 -1 u M-P模型 将人工神经元的基本模型与激活函数?结合,即McCulloch –Pitts模型。 w1 ? u=?wixi w2 wn x1 x2 xn y=? (u(X)-? ) 2、 感知器的学习算法 什么是“学习”? “The conceptual scheme for ‘learning’ in this context is a machine with an input channel for figures, a pair of YES and NO output indicators, and a reinforcement or ‘reward’ button that the machine’s operator can use to indicate his approval or disapproval of the machine’s behavior.” ——M. L. Minsky and S. A. Papert, “Perceptron”

您可能关注的文档

文档评论(0)

天马行空 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档