- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模式识别课程小论文
论文题目: 梯度下降算法的学习
学 院:
专 业:
学 号:
姓 名:
指导教师:
二〇一二年十二月二十六日
摘要
梯度法,又名最速下降法。早的求解无约束多元函数极值的数值方法,早在1847年就已由柯西(Cauchy))提出。它是导出其他更为实用、更为有效的优化方法的理论基础。因此,梯度法是无约束优化方法中最基本的方法之一。梯度下降法,就是利用负梯度方向来决定每次迭代的新的搜索方向,使得每次迭代能使待优化的目标函数逐步减小。模式识别(Pattern Recognition)是人类的一项基本智能,在日常生活中,人们经常在进行“模式识别”。随模式识别(Pattern Recognition)是指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程,是信息科学和人工智能的重要组成部分。 (k0) (1)
当时,;当时,,有极小值,所以对于已符号规范化的训练模式,应当寻求使取极小时的,因此时的满足。令,求得准则函数的梯度
(2)
为防止取极小值时出现的情况,这里令符号函数
由梯度下降法,增广权矢量的修正迭代公式为
(3)
当为常数时,上面准则下的梯度下降法的迭代公式与感知器训练算法是一致的。表明,感知器算法是梯度下降法的一种情况。取常数时,这种梯度下降法也称为固定增量法。若取得较小,收敛速度就较慢;若取得较大,收敛加快,但当搜索接近极值点时可能产生过调引起振荡。一般的,应随着搜索步数的增加而逐渐变小。在迭代过程中随而变化,则称为可变增量法。在迭代中,我们希望用修正,使有
迭代式两边和数积并利用上式,可得步长应满足
(4)
在上述算法中,每次迭代时,我们只考虑用一个训练模式修正权矢量,实际上,我们也可以几个训练模式一起考虑。设分属和类的训练模式,…已符号规范化,如果他们是线性可分的,则存在使
(5)
设在训练中只有一部分训练模式满足上述不等式,而另一些训练模式不满足不等式,这部分模式我们记为集合,即
,() (6)
我们构造准则函数
(7)
易知,非负,因被错分,则必有,亦即。在求得最佳解之前的迭代过程中,总有(集合中的元素是渐少的)使,即总是大于零并逐渐变小。当所求得的使所有的不等式(5)成立,成为空集,取其最小值。对于一次准则函数采用梯度下降法,梯度
(8)
梯度下降法迭代公式为
(9)
式中的是被错分类的模式集。这个迭代式称为批量修正,(3)式称为单样本修正。
3、结束语
通过对课程的学习,我对模式识别这门课程有了初步的认识。现在只是大概了解其概况,知道模式识别的基本过程和原理。还需要进一步的学习和理解。在这里特别感谢吴老师的指导,课堂上引领我们,还带领我们回顾以往的知识,了解自己的不足。
附:用最速下降法求解问题:
取初始点,通过Matlab编程实现求解过程。
公用函数如下:
1、function f= fun( X )
%所求问题目标函数
f=X(1)^2-2*X(1)*X(2)+4*X(2)^2+X(1)-3*X(2);
end
2、function g= gfun( X )
%所求问题目标函数梯度
g=[2*X(1)-2*X(2)+1,-2*X(1)+8*X(2)-3];
end
3、function He = Hess( X )
%所求问题目标函数Hesse矩阵
n=length(X);
He=zeros(n,n);
He=[2,-2;
-2,4];
End
最速下降法
function [ x,val,k ] = grad( fun,gfun,x0 )
%功能:用最速下降法求无约束问题最小值
%输入:x0是初始点,fun和gfun分别是目标函数和梯度
%输出:x、val分别是最优点和最优值,k是迭代次数
maxk=5000;%最大迭代次数
rho=0.5;sigma=0.4;
k=0;eps=10e-6;
while(kmaxk)
g=feval(gfun,x0);%计算梯度
d=-g;%计算搜索方向
if(norm(d)eps)
break;
end
m=0;mk=0;
while(m20)
if(feval(fun,x0+rho^m*d)feval(fun,x0)+sigma*rho^m*g*d)
mk=m;bre
原创力文档


文档评论(0)