网站大量收购独家精品文档,联系QQ:2885784924

智能控制技术⑶.ppt

  1. 1、本文档共66页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
神经元网络控制 主要参考书目 第一章 概论 人工神经网络的特点 人工神经网络 是由人工神经元互联组成的网络,从微观结构和功能上对人脑的抽象、简化,是模拟人类智能的一条重要途径。 人工神经网络 反映了人脑功能的若干基本特征,如,并行信息处理、学习、联想、模式分类、记忆等。 神经网络控制取得的进展 神经网络用于控制领域,取得了如下进展。 1. 神经网络系统辩识:重点在于非线性系统的建模与辨识。 2. 神经网络控制:对不确定、不确知系统及扰动进行有效的控制,使控制系统达到所要求的特性。 3. 神经网络与其它算法结合:与专家系统、模糊逻辑、遗传算法等相结合,为系统提供非参数模型、控制器模型。 4. 优化计算 5. 控制系统的故障诊断 本课程介绍前三个方面的问题 神经网络控制属于智能控制 由于神经网络具有模拟人的部分智能的特性,因此, 神经网络控制 是具有学习能力的,对环境的变化具有自适应性,成为基本上不依赖于模型的一类控制。 神经网络控制 主要解决非线性系统的控制问题。 能学习、自适应性、非线性控制是神经网络控制的特点。 神经网络控制属于智能控制 第二章 神经网络理论基础 引 言 2.1生物神经元和人工神经元模型 2.1生物神经元和人工神经元模型 一 生物神经元的结构 二、 神经元功能 三、人工神经元模型 MP模型 MP模型 其他形式的作用函数 不同的作用函数,可构成不同的神经元模型 3.对称型阶跃函数 非线性激励函数 S型(Sigmoid)函数的特点 2.2 人工神经网络 一、神经网络连接结构 单层神经元网络连接结构 输入、权值、输出矩阵 多层神经元网络结构 二、神经网络的信息处理和存储 神经网络与传统计算机的比较 三、神经网络的学习和训练 神经网络的学习方法之一 神经网络的学习方法之二、三 四、神经网络学习算法基础 两种基本的学习算法 神经网络的计算过程 五、神经网络的类型 六、人工神经网络与自动控制 人工神经网络在控制系统中的应用 人工神经网络的主要应用领域 2.3 多层前馈网络与BP学习算法 一、BP学习算法的基本思想 二、BP学习算法框图 三、BP学习算法步骤⑴ 三、BP学习算法步骤⑵ 三、BP学习算法步骤⑶ 三、BP学习算法步骤⑷ 四、BP学习算法有关的几个问题 四、BP学习算法有关的几个问题 四、BP学习算法有关的几个问题 四、BP学习算法有关的几个问题 EBP学习算法示意图⑴ EBP学习算法示意图⑵ 五、BP网络的设计 网络的层数 隐含层的神经元数 初始权值的选取 学习速率 EBP算法学习速率的调整 期望误差的选取 六、基于MATLAB的BP网络程序设计 ⒈网络结构设计 ⒉程序设计⑴ ⒉程序设计⑵ ⒉程序设计⑶ ⒊讨论 ⑴隐节点数n1及训练参数tp ⑵隐结点数对训练误差的影响 ⑶学习率对训练速度及稳定性的影响 ⑷过度拟合与泛化能力 ⑴隐节点数n1及训练参数tp不改变时,每次运行程序时的实际训练次数te和实际误差平方和pe是不同的。 下表是连续四次运行网络获得的te、pe值。 为什么会出现这种现象呢? 网络的初始值是随机选取的,因而每次的初始值必不相同,这就使得网络各神经元的净输入可大可小,落在传递函数不同的位置,因而获得的导数值也是不同的。而权值修正公式中,δ函数正比于导数值,导数值较大时,修正量较大,故收敛也较快;反之网络处于麻痹状态,收敛较慢。 由此看来,当网络训练情况不理想时,不要急于改变各参数值,而是试着再训练几次,直到满意为止。如果连续几次训练情况都不好,那就再考虑改变一些参数的设定。 如果单元ui接收来自另一单元uj的输出,那么,如果两个单元都高度兴奋,则从uj到ui的权值wij便得到加强。 Hebb学习规则的基本思想: 该思想用数学来表达: ti(t)是对于单元ui的一种理想输入 该式意味着,从uj到ui的连接权值的修改量是由单元ui的活跃值ai(t)和它的理想输入ti(t)的函数g,及ui的输出值oj(t)和连接强度wij的函数h的积确定。 在Hebb学习规则的最简单形式中没有理想输入,而且函数g和h与它们的第一个自变量成正比。因此有: η——学习速率 Widrow-Hoff(威德罗-霍夫)规则,又称作Delta规则 若定义 则有 修正量与目标活跃值和实际的活跃值之差(或称Delta)成正比 Grossberg规则—相近学习规则 Delta规则可由二次误差函数的梯度法导出,故Delta规则实际上是一种梯度方法。 用于ART、SOFM等自组织竞争型网络的学习 无论是在训练(慢过程)学习中,还是在快过程识别中,神经元

文档评论(0)

wxc6688 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档