智能控制、遗传算法、神经网络控制简介.docVIP

智能控制、遗传算法、神经网络控制简介.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
智能控制、遗传算法、神经网络控制简介

遗传算法的二进制编码: 优点,提供的参数信息量大,优化效果好,二进制编码能够取得最大的模式数。假设二进制编码长度为l,则采用k进制编码长度为m,有,如l=6时,若采用四进制编码k=4,长度m=3。相应的二进制编码模式数为,而四进制编码模式数为 求最优解或近似最优解的方法主要有三种: 枚举法、解析法和随机搜索法。随着问题的复杂,往往会陷入局部最优,遗传算法开创了一种新的全局优化搜索算法。遗传算法是模拟生物在自然环境下的遗传和进化过程而形成的一种自适应全局优化概率搜索方法。 遗传算法的特点:a、只对参数的编码进行操作,而非对参数本身。B、从许多点开始并行操作,而非局限于一点,防止局部最优;c、通过目标函数来计算适配置,对问题依赖性小;d、寻优规则由概率决定,不确定性;e、在解空间上进行高效启发式搜索,而非盲目的穷举或完全随机搜索f、对待寻优的函数基本 无限制,应用范围较广;g、并行计算,速度快;h、适合大规模复杂问题的优化;i、计算简单且功能强。 模式指编码的字符串在某些确定位置上具有相似性的位串子集的相似性模板,使用H代表模式。模式位数指模式有定义的非“*”位个数记为O(H),若H=00*1*0,则O(H)=4; 模式的定义长度指模式中最两端的有定义位置之间的距离,记为((H),若H=00*1*0,则((H)=6-1=5,若H=**11**,则((H)=4-3=1,模式长度越短,被破坏的可能性越小,长度为0的模式最难被破坏。我们只关心字符的某些特定形式,如1****,11***,0**** 这种特定的组合形式就叫模式。 匹配:模式 *0000 则匹配2个个体:10000,00000 当位串长度为l时,一个包含n个位串的种群中含有的模式个数为之间。 模式定理:适应度高于群体平均适应度的,长度较短,低阶的模式在遗传算法的迭代过程中按指数规律增长。 模式定理深刻的阐明了遗传算法中发生优胜劣汰的原因。 遗传算法程序框图 ***********************存活率计算 有两个模式 H1: “ * 1 * * * * 0 ”;H2: “ * * * 1 0 * * ”,其中A: “ 0 1 1 1 0 0 0 ”是H1和H2共同的可匹配个体,选择A进行交叉且交叉点随机, 交叉点随机的从l-1=7-1=6个位置可选,H1存活率 则任何模式的交叉存活率的下限是,上边均设交叉的概率为1,当概率为时,存活率 变异时模式H存活的概率为,其中为单个位置随机变异的概率。 基于人工神经网络的控制简称神经控制。神经网络是由大量人工神经元广泛互联而成的网络,具有很强的自适应性和学习能力、非线性映射能力、鲁棒性和容错能力。 人工神经网络是一个多输入、单输出的非线性元件。 左图描述为 其中,是从其他神经元传来的输入信号;表示从神经元j到神经元i的连接权值; 为阈值;f() 称为激发函数或作用函数。常令 神经网络的模型,典型的有前馈型网络和反馈型网络。 前馈型神经网络,又称前向网络,神经元分层排列,有输入层、中间层(隐层)、输出层,每一层的神经元只接受前一层神经元的输入。包括感知器网络、BP网络。 感知器,单层神经元,主要用于模式分类, 当输入向量[x1,x2…xn]属于某 一类时,该类对应的输出y=1,其他等于-1。对于其中单个神经元, 学习算法 随机给定一组初始权值;b、给定一组输入样本X和期望输出d;c、计算感知器实际输出 D、修正权值 学习速率太大易震荡,太小则学习太慢。E、继续重复学习过程,直到权值稳定为止。F、选取另一组样本继续学习,直到对所有样本都稳定为止。 BP网络 BP算法的基本原理:利用输出后的误差来估计输出层的直接前导层的误差,再利用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计 结构是多层前向网络,BP网络如下图所示 。 BP学习算法的计算步骤,如右图所示 使用BP算法应注意的几个问题: 权值初值应设为较小的随机数; 采用s型激发函数时,期望输出不能设为1或0,应设为0.9或0.1 学习速率在开始时可取大值,后期取小值。 例5-1,考虑图5-11的简单网络,代价函数为 ,为第p个样本对的误差函数,计算输出层和隐含层节点的反传误差信号。 解:对于某一p,计算(略去下标p) BP网络的优点: 非线性映射能力。只要提供足够多的样本模式供学习,便能完成由n维到m维的非线性映射; 泛化能力,当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入到输出正确映射; 容错能力,输入样本中带有较大的误差甚至个别错误对网络影响较小。 BP网络的缺点: 学习速度慢;2、训练失败可能性大;3、难以解决应用问题的实例规模和网络规模间的矛盾;4、网络结构的选择还只能由经验决定;5、新加入的样本会影响已

文档评论(0)

xcs88858 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档