一种改进学习因子的粒子群算法.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
一种改进学习因子的粒子群算法一种改进学习因子的粒子群算法

一种改进学习因子的粒子群算法 【 摘 要 】 针对高维复杂函数的标准粒子群算法常存在早熟收敛问题,提出一种让初始化粒子群的位置“相对均匀”并且随着搜索阶段不同而改变认知学习因子和社会学习因子的算法。该算法可以在搜索前期增强全局搜索,使之不陷入局部最优,而到搜索后期增强局部搜索能力,使之得到更精确全局最优解。通过五个典型测试函数的实验结果对比,可以清楚地表明改进后的算法得到的最优解更加接近真实的最优解。 【 关键词 】 粒子群算法;相对均匀;学习因子;全局搜索与局部搜索的平衡 【 abstract 】 partical swarm optimization usually lead to premature convergence, especially in optimizing high-dimensional functions. in this paper, particle relatively uniform distribute in search space when initializing them, two acceleration coefficients vary with iterations and searching stage.the algorithm can make the search behave well in globle searching avoiding local optimum at preactive stage.meanwhile, it strengthens local searching to get more precise globle optimum.five typical benchmark functions?experiment simulation show that proposed algorithm can more better globle optimum. 【 keywords 】 particle swarm optimization algorithm;relatively uniform; acceleration coefficient; balance in local and globle searching 0 引言 由eberhart 和kennedy 于1995年提出粒子群算法模拟昆虫、鸟群和鱼群等群集行为,个体通过学习自身的经验和整个群体的经验来不断改变搜索方式,由于它不像其它进化算法操作起来复杂,所以自从粒子群算法提出后在很多优化领域得到广泛的成功应用。pso算法作为一种随机搜索算法,在高维目标函数,pso对全局最优解搜索有时不成功,而是陷入局部最优,为此许多研究者从不同的角度给出不同的策略改进算法。 y.shi r和eberhart在1998年提出线性递减惯性权重的粒子群算法,文献[3]给出了很多让非线性递减的方法。文献[4、5、6]给出了动态调整惯性权重的算法,使得惯性权值随着粒子的搜索状态而改变。而为了不使粒子陷入局部最优,文献[7、8、9、10]采用变异的思想。本文在采用文献[2]中提到的改进惯性权重的基础上,对学习因子进行改进,使得算法更好地平衡局部搜索能力和全局搜索能力。通过五个测试函数的试验结果对比,发现本文算法在以前的算法上得到很好的改进。 1 惯性权重线性递减pso算法[ldiw- pso] shi和eberhart在1998年提出了惯性权重线性递减linearly decreasing inertia weight 记为[ldiw-pso] ω=ωmax-(ωmax-ωmin) (1) 式中ωmax,ωmin分别为最大,最小惯性权重,一般取ωmax=0.9, ωmin=0.4 2 改进学习因子的pso算法 2.1 微粒均匀分布 在微粒位置初始化时往往是在搜索空间随机产生,这样容易造成微粒初始位置过于集中而使得搜索的失败。为此,本文在初始化时让微粒“相对均匀”分布在搜索空间里。设有m个微粒,搜索空间是[a,b]d,m个微粒的初始位置x10,x20,…,xm0,xi0∈[a+(i-1),b+i](d是空间维数)。 2.2 改进学习因子 粒子群算法中的粒子在搜索过程中,希望搜索的前阶段速度大,达到对整个空间的搜索不致于陷入局部。本文就是对学习因子c1和c2进行改进,在搜索的前阶段c1取较大值,c2取较小值,目的是让粒子多向自己的最优pbest学习,向社会最优gbest学习少一些,使粒子的全局搜索能力增强;而在后阶段刚好相反,c1取较小值,c2取较大的值,使粒子的向社会最优位置gbest的局部靠拢,使得局部搜索增强。我们对c1和c2

文档评论(0)

cxiongxchunj + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档