极限学习机原理介绍.pdf

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
极限学习机原理介绍

极限学习机(Extreme Learning Machine,ELM) 一,ELM 概要 极限学习机是一种针对单隐含层前馈神经网络(Single-hidden Layer Feedforward Neural Network, SLFN)的新算法。相对于传统前馈神经网络训练速度 慢,容易陷入局部极小值点,学习率的选择敏感等缺点,ELM 算法随机产生输入 层与隐含层的连接权值及隐含层神经元的阈值,且在训练过程中无需调整,只需 要设置隐含层神经元的个数,便可以获得唯一的最优解。与之前的传统训练方法 相比,ELM 方法具有学习速度快,泛化性能好等优点。 二,ELM 概述 传统的典型单隐含层前馈神经网络结构如下图一所示,由输入层,隐含层和 输出层组成,输入层与隐含层,隐含层与输出层神经元间全连接。其中,输入层 有n 个神经元,对应n 个输入变量;隐含层有l 个神经元;输出层有m 个神经元, 对应m 个输出变量。在不失一般性的情况下,设输入层与隐含层间的连接权值 W 为 w11 w12 ... w1n    w w ... w W  21 22 2n   ... ... ... ...  (1)   w w ... w  l1 l2 ln ln w 其中, 表示输入层第i 个神经元与隐含层第j 个神经元的连接权值。 ji 设隐含层与输出层间的连接权值 为 11 12 ... 1m     21 22 ... 2m   ... ... ... ...  (2)   l1 l2 ... lm lm  其中, 表示隐含层第j 个神经元与输出层第k 个神经元间的连接权值。 jk 设隐含层神经元的阈值b 为 b   1   b 2 b     (3)    b  l l1 设具有Q 个样本的训练集输入矩阵X 和输出矩阵Y 分别为 x11 x12 ... x1Q  y11 y12 ... y1Q    

文档评论(0)

ranfand + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档