ELM极限学习机相关.docx

  1. 1、本文档共17页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
简单易学的机器学习算法——极限学习机(ELM)一、极限学习机的概念? ? 极限学习机(Extreme Learning Machine) ELM,是由黄广斌提出来的求解单隐层神经网络的 HYPERLINK /base/datastructure \o 算法与数据结构知识库 \t _blank 算法。? ? ELM最大的特点是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。二、极限学习机的原理ELM是一种新型的快速学习算法,对于单隐层神经网络,ELM 可以随机初始化输入权重和偏置并得到相应的输出权重。 (选自黄广斌老师的PPT)对于一个单隐层神经网络(见Figure 1),假设有个任意的样本,其中,。对于一个有个隐层节点的单隐层神经网络可以表示为其中,为激活函数,为输入权重,为输出权重,是第个隐层单元的偏置。表示和的内积。? ? ?单隐层神经网络学习的目标是使得输出的误差最小,可以表示为即存在,和,使得可以矩阵表示为其中,是隐层节点的输出,为输出权重,为期望输出。,为了能够训练单隐层神经网络,我们希望得到,和,使得其中,,这等价于最小化损失函数传统的一些基于梯度下降法的算法,可以用来求解这样的问题,但是基本的基于梯度的学习算法需要在迭代的过程中调整所有参数。而在ELM算法中, 一旦输入权重和隐层的偏置被随机确定,隐层的输出矩阵就被唯一确定。训练单隐层神经网络可以转化为求解一个线性系统。并且输出权重可以被确定其中,是矩阵的Moore-Penrose广义逆。且可证明求得的解的范数是最小的并且唯一。三、实验? ? 我们使用《 HYPERLINK /googlarticle/details\t _blank 简单易学的机器学习算法——Logistic回归》中的实验数据。原始数据集我们采用统计错误率的方式来评价实验的效果,其中错误率公式为:对于这样一个简单的问题,。MATLAB代码主程序[plain]? HYPERLINK /googlarticle/details\o view plain view plain? HYPERLINK /googlarticle/details\o copy copy?%%?主函数,二分类问题????%导入数据集??A?=?load(testSet.txt);????data?=?A(:,1:2);%特征??label?=?A(:,3);%标签????[N,n]?=?size(data);????L?=?100;%隐层节点个数??m?=?2;%要分的类别数????%--初始化权重和偏置矩阵??W?=?rand(n,L)*2-1;??b_1?=?rand(1,L);??ind?=?ones(N,1);??b?=?b_1(ind,:);%扩充成N*L的矩阵????tempH?=?data*W+b;??H?=?g(tempH);%得到H????%对输出做处理??temp_T=zeros(N,m);??for?i?=?1:N??????if?label(i,:)?==?0??????????temp_T(i,1)?=?1;??????else???????????temp_T(i,2)?=?1;??????end??????end??T?=?temp_T*2-1;????outputWeight?=?pinv(H)*T;????%--画出图形??x_1?=?data(:,1);????x_2?=?data(:,2);????hold?on????for?i?=?1?:?N????????if?label(i,:)?==?0????????????plot(x_1(i,:),x_2(i,:),.g);????????else????????????plot(x_1(i,:),x_2(i,:),.r);????????end????end????output?=?H?*?outputWeight;??%---计算错误率??tempCorrect=0;??for?i?=?1:N??????[maxNum,index]?=?max(output(i,:));??????index?=?index-1;??????if?index?==?label(i,:);??????????tempCorrect?=?tempCorrect+1;??????end??end????errorRate?=?1-tempCorrect./N;?? 激活函数[plain]? HYPERLINK /googlarticle/details/182

文档评论(0)

js1180 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档