第三章模糊控制.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第三章模糊控制.ppt

 单一神经元的输入项Net由输入信号 的线性组合构成,即    式中,为阈值; 是决定第 个输入的突触权系数。 式中,  表示神经元激励函数。  如果输出变量 是一个二值元素,则在平衡点      表示兴奋状态,    表示抑制状态。 二、单层神经网络结构  单层神经网络结构是由 个输入单元和 个输出单元组成的,见下图。 隐含层单元与输入单元之间通过突触权系数 连接,并可用矩阵 表示全部的连接关系,隐含单元与输出单元通过突触权系数 表示,全部连接关系可用矩阵 记之。 很显然,隐含单元输出  是输入矢量  和它们之间的突触权系数  的函数 。突触权系数  由学习算法来训练。 根据 层网络结构可知,网络的输出为 BP学习算法——误差反向传播学习算法 定义 例1 如下图所示的多层前向传播神经网络结构 假设对于期望的输入 试用BP算法训练此网络。这里,取神经元激励函数: 学习步长为 图4-15 例1的神经网络结构图 解: 1)输入最大容许逼近误差值  最大迭代学习次数 iterate max. 置初始迭代学习次数 iterate=0 2)计算当前输入状态下、当前网络的连接权系数下的神经网络输出。 3)判断神经网络逼近误差满足要求或迭代学习达到最大容许值否? 若上述不等式中有一个满足,则退出学习。否则进入下一步。 4)计算广义误差 输出层 隐含层 4.2 前向神经网络模型 前向神经网络——由一层或多层非线性处理单元组成的。相邻层之间通过突触权阵连接起来。由于前一层的输出作为下一层的输入,因此称此类网络结构为前向神经网络。 基本概念 在前向网络结构中输入输出之间包含着一层或多层隐含层。 前向神经网络可以看成一种一组输入模式到一组输出模式的系统变换。这种变换通过对某一给定的输入样本相应的输出数据集的训练而得到。此神经网络为有导师指导下的学习。 一、单一人工神经元(单元)  单一人工神经元的激励输出是由一组连续输入信号 决定的。这些输入信号代表着从另外神经元传递过来的神经脉冲的瞬间激励。设 代表神经元的连续输出状态值,在离散情况下,取0或1来表示神经元的兴奋或抑制。 图4-11 单一人工神经元的示意图 因此,每一神经元的输出都可以用一个阈值型非线性激励函数来表示。通常取 一般情况下,Net应该是输入 的非线性函数: 此时,神经元的平衡态输出为: 图4-12 只含二次项的神经元结构示意图 二值输出的神经元: 只含兴奋和抑制两种状态的单一神经元可以看作是一个分类器,即能对任意一组输入信号进行是否属于的分类映射。 连续输出的单一神经元: 神经元可以作为一个最简单的神经控制器进行参数自适应控制,如传统的PID调节器就可以用单一神经元来实现。这样,可以通过神经元的连接权系数来达到PID参数的自适应。 图4-13 单层前向传播网络结构示意图 系统 个输入变量用        表示,个输出变量用        表示。则每一个输出神经元 满足 三、多层神经网络结构  多层传播结构是在输入层和输出层之间嵌入一层或多层隐含层的网络结构。隐含单元既可以与输入输出单元相连,也可以与其它隐含单元相连。 图4-14a) 含一个隐含层前向传播网络结构示意图 由图中可知,输入变量 向 个隐含层单元传递输入信号,即每一隐含单元的激励 式中, 为隐含层神经元的激励函数。每一层内的各神经元激励函数可以是不一样的。不失一般性,这里取为相同的激励函数。 同样,输出层单元为 式中 为输出层神经元的激励函数。  不难看出,可以简单地直接将以上结论推广到多层隐含层的神经网络上去。 同样,输出层单元为 注意: 真正意义上的多层神经网络指的是,隐含层单元至少含有一个非线性单元,否则多层前向网络就退化为一个单层的神经网络结构了。 式中, 为各神经元的激励函数, 为  层到 层的连接权矩阵, 为了便于数学推导,不失一般性,假设每一层的神经元激励函数相同,则对于L+1层前向传播网络,其网络输出的数学表达式一律采用 其中 一般取为与网络结构相关的非线性算子。神经网络可以通过合适样本集,即外部给定的输入输出矢量对 ,来进行训练,调整其权值矩阵。 四、多层传播网络的学习算法  前向传播网络实质上表示的是一种从输入空间到输出空间的映射。对于给定的输入矢量 ,其神经网络的响应为 权值矩阵系数的调整是通过对所有样本 的误差指标     达到极小的方法来实现的。式中,表示期望的输出; 表示当前网络的实际输

文档评论(0)

shiyouguizi + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档