神经网络控制案例医疗培训课件.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

1、生物神经元模型;2;神经元主要由三部分组成:树突、细胞体和轴突。;从生物控制论的观点来看,神经元作为控制和信息处理的基本单元,具有下列一些重要的功能与特性:;;;7;2、人工神经元模型;i;其输入、输出关系可描述为

其中,是从其他神经元传来的输入信号;表示从神经元j到神经元i的连接权值;为阈值;称为激发函数或作用函数。;输出激发函数又称为变换函数,它决定神经元(节点)的输出。该输出为1或0,取决于其输入之和大于或小于内部阈值。函数一般具有非线性特性。下图表示了几种常见的激发函数。

①阈值型函数(见图(a),(b))

②饱和型函数(见图(c))

③双曲函数(见图(d))

④S型函数(见(e))

⑤高斯函数(见图(f));;3、人工神经网络模型;(1)前馈型神经网络;15;(2)反馈型神经网络;17;4、神经网络的学习方法;再励学习是介于上述两者之间的一种学习方式。再励学习没有教师信号,只能获得行为结果的好坏评价信息,利用评价信息来改善行为。这是模仿生物通过“行为-评价-改进”的方式适应环境。;神经网络中常用的几种最基本的学习方法;(2)Delta(δ)学习规则

δ规则实现了误差准则函数E中的梯度下降,使误差函数达到最小值。其基本思想是沿着E的负梯度方向不断修正权值,直到E达到最小。

δ学习规则只适用于线性可分函数,无法用于多层网络。BP网络的学习算法称为BP算法,是在δ规则基础上发展起来的,可在多网络上有效地学习。

;(3)概率式学习

从统计力学、分子热力学和概率论中关于系统稳态能量的标准出发,进行神经网络学习的方式称概率式学习。神经网络处于某一状态的概率主要取决于在此状态下的能量,能量越低,概率越大。同时,此概率还取决于温度参数T。T越大,不同状态出现概率的差异便越小,较容易跳出能量的局部极小点而到全局的极小点;T越小时,情形正相反。概率式学习的典型代表是Boltzmann机学习规则。它是基于模拟退火的统计优化方法,因此又称模拟退火算法。;(4)竞争式学习

竞争式学习属于无教师学习方式。此种学习方式利用不同层间的神经元发生兴奋性联接,以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较远的神经元产生抑制性联接。在这种联接机制中引入竟争机制的学习方式称为竟争式学习。它的本质在于神经网络中高层次的神经元对低层次神经元的输入模式进行竞争识别。;从上述几种学习规则可以看出,所谓神经网络的学习,主要是指通过一定的学习算法实现权值的调整,使其达到具有记忆、识别、分类、信息处理和问题优化求解等功能。;(二)前向神经网络;1n;取其中的一个神经元来讨论:;感知器的一种学习算法:;29;2、BP网络;;误差反向传播的BP算法简称BP算法,其基本思想是最小二乘算法。它采用梯度搜索技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。

BP算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层,每层神经元(节点)的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转入反向传播,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,使误差信号最小。;BP学习算法的计算步骤:

1)初始化。置所有权值为较小的随机数;

2)提供训练集。给定输入向量和期望的目标输出向量;

3)计算实际输出。计算隐含层、输出层各神经元输出;

4)计算目标值与实际输出的偏差Ep;

5)计算

6)计算

7)返回“2)”重复计算,直到误差满足要求为止。;;在使用BP算法时,应注意的几个问题:

1)学习开始时,各隐含层连接权系数的初值应以设置较小的随机数较为适宜。

2)采用S型激发函数时,由于输出层各神经元的输出只能趋于1或0,不能达到1或0。在设置各训练样本时,期望的输出分量dpk不能设置为1或0,以设置为0.9或0.1较为适宜。

3)学习速率η的选择,在学习开始阶段,η选较大的值可以加快学习速度。学习接近优化区时,η值必须相当小,否则权系数将产生振荡而不收敛。;多层前向BP网络的优点:

1)网络实质上实现了一个从输入到输出的映射功能,数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题;

2)网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力;;3、神经网络的训练;神经网络训练的具体步骤:;(三)反馈神经网络;1、离散Hopfield网络;41;整个网络有两种工作方式:即异

文档评论(0)

RealGenius + 关注
实名认证
文档贡献者

如有不慎侵权,请联系删除!

1亿VIP精品文档

相关文档