模式识别小论文.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模式识别课程小论文 论文题目: 梯度下降算法的学习 学 院: 专 业: 学 号: 姓 名: 指导教师: 二〇一二年十二月二十六日 摘要 梯度法,又名最速下降法。早的求解无约束多元函数极值的数值方法,早在1847年就已由柯西(Cauchy))提出。它是导出其他更为实用、更为有效的优化方法的理论基础。因此,梯度法是无约束优化方法中最基本的方法之一。梯度下降法,就是利用负梯度方向来决定每次迭代的新的搜索方向,使得每次迭代能使待优化的目标函数逐步减小。模式识别(Pattern Recognition)是人类的一项基本智能,在日常生活中,人们经常在进行“模式识别”。随模式识别(Pattern Recognition)是指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程,是信息科学和人工智能的重要组成部分。 (k0) (1) 当时,;当时,,有极小值,所以对于已符号规范化的训练模式,应当寻求使取极小时的,因此时的满足。令,求得准则函数的梯度 (2) 为防止取极小值时出现的情况,这里令符号函数 由梯度下降法,增广权矢量的修正迭代公式为 (3) 当为常数时,上面准则下的梯度下降法的迭代公式与感知器训练算法是一致的。表明,感知器算法是梯度下降法的一种情况。取常数时,这种梯度下降法也称为固定增量法。若取得较小,收敛速度就较慢;若取得较大,收敛加快,但当搜索接近极值点时可能产生过调引起振荡。一般的,应随着搜索步数的增加而逐渐变小。在迭代过程中随而变化,则称为可变增量法。在迭代中,我们希望用修正,使有 迭代式两边和数积并利用上式,可得步长应满足 (4) 在上述算法中,每次迭代时,我们只考虑用一个训练模式修正权矢量,实际上,我们也可以几个训练模式一起考虑。设分属和类的训练模式,…已符号规范化,如果他们是线性可分的,则存在使 (5) 设在训练中只有一部分训练模式满足上述不等式,而另一些训练模式不满足不等式,这部分模式我们记为集合,即 ,() (6) 我们构造准则函数 (7) 易知,非负,因被错分,则必有,亦即。在求得最佳解之前的迭代过程中,总有(集合中的元素是渐少的)使,即总是大于零并逐渐变小。当所求得的使所有的不等式(5)成立,成为空集,取其最小值。对于一次准则函数采用梯度下降法,梯度 (8) 梯度下降法迭代公式为 (9) 式中的是被错分类的模式集。这个迭代式称为批量修正,(3)式称为单样本修正。 3、结束语 通过对课程的学习,我对模式识别这门课程有了初步的认识。现在只是大概了解其概况,知道模式识别的基本过程和原理。还需要进一步的学习和理解。在这里特别感谢吴老师的指导,课堂上引领我们,还带领我们回顾以往的知识,了解自己的不足。 附:用最速下降法求解问题: 取初始点,通过Matlab编程实现求解过程。 公用函数如下: 1、function f= fun( X ) %所求问题目标函数 f=X(1)^2-2*X(1)*X(2)+4*X(2)^2+X(1)-3*X(2); end 2、function g= gfun( X ) %所求问题目标函数梯度 g=[2*X(1)-2*X(2)+1,-2*X(1)+8*X(2)-3]; end 3、function He = Hess( X ) %所求问题目标函数Hesse矩阵 n=length(X); He=zeros(n,n); He=[2,-2; -2,4]; End 最速下降法 function [ x,val,k ] = grad( fun,gfun,x0 ) %功能:用最速下降法求无约束问题最小值 %输入:x0是初始点,fun和gfun分别是目标函数和梯度 %输出:x、val分别是最优点和最优值,k是迭代次数 maxk=5000;%最大迭代次数 rho=0.5;sigma=0.4; k=0;eps=10e-6; while(kmaxk) g=feval(gfun,x0);%计算梯度 d=-g;%计算搜索方向 if(norm(d)eps) break; end m=0;mk=0; while(m20) if(feval(fun,x0+rho^m*d)feval(fun,x0)+sigma*rho^m*g*d) mk=m;bre

文档评论(0)

love + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档