关于非线性优化fminbnd函数说明.docVIP

  1. 1、本文档共3页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
关于非线性优化fminbnd函数说明.doc

关于非线性优化fminbnd函数的说明(仅供新手参考)(也可作为fmincon函数的参考) 2011-04-20 22:09 关于非线性优化fminbnd函数的说明(仅供新手参考) /thread-757055-1-1.html 初学matlab优化,迭代中止后,经常一头雾水。参看帮助后仍似懂非懂。下面关于fminbnd函数的说明(也可作为fmincon函数的参考)对于新手也许会有帮助,不当之处请指正。 目标函数fun: 需要最小化的目标函数。fun函数需要输入标量参数x,返回x处的目标函数标量值f。可以将fun函数指定为命令行,如 x = fminbnd(inline(sin(x*x)),x0) 同样,fun参数可以是一个包含函数名的字符串。对应的函数可以是M文件、内部函数或MEX文件。若fun=myfun,则M文件函数myfun.m必须有下面的形式: function f = myfun(x) f = ... %计算x处的函数值。 若fun函数的梯度可以算得,且options.GradObj设为on(用下式设定), options = optimset(GradObj,on) 则fun函数必须返回解x处的梯度向量g到第二个输出变量中去。注意,当被调用的fun函数只需要一个输出变量时(如算法只需要目标函数的值而不需要其梯度值时),可以通过核对nargout的值来避免计算梯度值。 function [f,g] = myfun(x) f = ... %计算x处得函数值。 if nargout 1 %调用fun函数并要求有两个输出变量。 g = ... %计算x处的梯度值。 end 若Hessian矩阵也可以求得,并且options.Hessian设为on,即, options = optimset(Hessian,on) 则fun函数必须返回解x处的Hessian对称矩阵H到第三个输出变量中去。注意,当被调用的fun函数只需要一个或两个输出变量时(如算法只需要目标函数的值f和梯度值g而不需要Hessian矩阵H时),可以通过核对nargout的值来避免计算Hessian矩阵 function [f,g,H] = myfun(x) f = ... % 计算x处得函数值。 if nargout 1 % 调用fun函数并要求有两个输出变量。 g = ... % 计算x处的梯度值。 if nargout 2 H = ... % 计算x处的Hessian矩阵。 end 优化参数选项options: 可以通过optimset函数设置或改变这些参数。其中有的参数适用于所有的优化算法,有的则只适用于大型优化问题,另外一些则只适用于中型问题。 首先描述适用于大型问题的选项。这仅仅是一个参考,因为使用大型问题算法有一些条件。对于fminunc函数来说,必须提供梯度信息。 LargeScale–当设为on时使用大型算法,若设为off则使用中型问题的算法。 适用于大型和中型算法的参数: Diagnostics–打印最小化函数的诊断信息。 Display–显示水平。选择off,不显示输出;选择iter,显示每一步迭代过程的输出;选择final,显示最终结果。打印最小化函数的诊断信息。 GradObj–用户定义的目标函数的梯度。对于大型问题此参数是必选的,对于中型问题则是可选项。 MaxFunEvals–函数评价的最大次数。 MaxIter–最大允许迭代次数。 TolFun–函数值的终止容限。 TolX–x处的终止容限。 只用于大型算法的参数: Hessian–用户定义的目标函数的Hessian矩阵。 HessPattern–用于有限差分的Hessian矩阵的稀疏形式。若不方便求fun函数的稀疏Hessian矩阵H,可以通过用梯度的有限差分获得的H的稀疏结构(如非零值的位置等)来得到近似的Hessian矩阵H。若连矩阵的稀疏结构都不知道,则可以将HessPattern设为密集矩阵,在每一次迭代过程中,都将进行密集矩阵的有限差分近似(这是缺省设置)。这将非常麻烦,所以花一些力气得到Hessian矩阵的稀疏结构还是值得的。 MaxPCGIter–PCG迭代的最大次数。 PrecondBandWidth–PCG前处理的上带宽,缺省时为零。对于有些问题,增加带宽可以减少迭代次数。 TolPCG–PCG迭代的终止容限。 TypicalX–典型x值。

您可能关注的文档

文档评论(0)

dmz158 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档