MASTER改进型遗传算法在木材干燥过程建模中的应用研究.docVIP

MASTER改进型遗传算法在木材干燥过程建模中的应用研究.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
MASTER改进型遗传算法在木材干燥过程建模中的应用研究.doc

MASTER改进型遗传算法在木材干燥过程建模中的应用研究 东北林业大学硕七学位论文下,很难判定最优解的数量及其在可行解空间中的分布状况。因此我们往往希望在问题解空间均匀采样,随机生成一定数目的个体,然后从中挑选较好的个体构成初始种群。对于带约束域的问题,还需要判定随机初始化位串所对应的参数点是否在可行区域范围之内,所以一般必须借助于问题领域知识。5终止循环的条件关于GA迭代过程如何终止,~般采用设定最大代数的方法。该方法简单易行但不准确。其次,可根据群体的收敛程度来判断,通过计算种群中的基因多样性测度,即所有基因位的相似程度来控制。第三,根据算法的离散性能和在线性能的变化进行判定。最后,在采用精英保留选择策略的情况下,按每代最佳个体的适应值的变化情况确定。6控制参数及选择在遗传算法的运行过程中,存在着对其性能产生重大影响的一组参数。这组参数在初始阶段或群体进化过程中需要合理的选择和控制】,使GA以最佳的搜索轨迹达到最优解。主要参数包括染色体位串长度L,群体规模,z,交叉概率见以及变异概率‰。(1)位串长度己:位串长度三的选择取决于特定问题解的精度。要求的精度越高,位串越长,但需要更多的计算时间。(2)群体规模/'/:大群体含有较好模式,为遗传算法提供了足够的模式采样容量,可以改进GA搜索的质量,防止早熟收敛。但大群体会增加个体适应性评价的计算量,从而使收敛速度降低。一般情况下取n=20"--200.(3)交叉概率pc:交叉概率控制着交叉算子的应用频率,在每一代新的群体中,需要对见×t/个个体的染色体结构进行交叉操作。交叉概率越高,群体中新结构的引入越快,但已获得的优良基因结构的丢失速度也相应升高。(4)变异概率Pm:变异操作是保持群体多样性的有效手段。变异概率太小,可能使某些基因位过早丢失的信息无法恢复;而变异概率过高,则遗传搜索将变成随机搜索。3.2.2遗传算法的流程在遗传算法(GA)的应用过程中,人们往往结合问题的特征对GA进行各种改变,形成了各种各样的具体的GA,使GA具有求解不同类型优化问题的能力,但GA的基本流程是一致的。标准GA的算法流程为【45】:迭代开始初始化:p(0)=缸。(0l口:(0),…,a。(o)}适应度评价:p(O)--扩G。(0n/G:(o)),…,/G。(o))}QWhile(循环)TbO))≠truedo选择:pO)=s00),见)交叉:P”O)=cCoO),见)变异:P”O)=柳0”Ol‰)新一代群体:pO+1)=P”O),净f+1.3遗传算法适应性评价:pO+1)=扩G,O+l她厂G:O+1)),…,/(口。O+1))}结束(enddo)该算法的流程框图如下所示:开始确定实际问题参数集对参数集进行编码初始化种群P(0)计算每个个体的适应值群体P(t)TT群体P(t+1)影P午厂主、选择操作l\——/交叉操作变异操作图3一l遗传算法流程图遗传算法以其独特的性能,被广泛用在多个领域。在应用的过程中,我们可以看出,遗传算法具有很强的全局搜索能力,但是其局部搜索能力却明显不足,存在易陷入局部最优解和选择压力过大造成的早熟收敛等问题。为了解决这一问题,人们采取了一些改进措施。3.3遗传算法的改进方法到目前为止,多数的BP网络采用sigmoid函数作为节点传递函数,产生局部极小点的主要原因在于sigmoid函数的特性:当节点的输入值较大时,其输出值的变化幅度很小,此时若用梯度下降算法训练网络,则梯度趋近于0,不能再对网络参数进行修正,训练过程就停滞在局部极小值。因此,当训练误差较大而梯度tt曼d,时,可判定遇到局部极小点【矧,如式(3.9)所示:SE肛>引叫<●l东北林业大学硕:}学位论文式中,E~训练误差:£~训练误差限;M~梯度。而跳出局部极小值的解必须满足下式:{鼢<I擘一(3-10)¨M黝|I>IIM∞异I式中,吃硎一改进遗传算法的训练误差;吃m一采用梯度下降法时的训练误差;M蹦一采用改进遗传算法时的梯度;M锹一应用梯度下降法时的梯度。即应用改进遗传算法的目标是减d,iJll练误差的同时增大梯度。为了充分发挥遗传算法在优化BP神经网络的过程中克服陷入局部极小值方面的优势,有人考虑对遗传算法中的两个重要环节进行了分析和修改【47】:1对评价函数的分析和修改遗传算法中,对可行解进行量化评价的依据是该解对优化目标所呈现出的贡献。在神经网络的训练问题中通常根据可行解所对应的训练误差对其进行评价:s(w)5赢(3-11)式中,W一可行解;f(w)一评价函数。然而根据式(3.10),克服局部极小点不仅要减d,4Jll练误差,同时也要增大梯度,因此只考虑训练误差一个方面是不合适的,可将评价函数修改为:厂():面M(万W)II吻合的,就有利于跳出局部极小点。2对变异模型的分析及改进(3.12)即可行

文档评论(0)

zhangningclb + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档