指导老师高新波优秀培训书.pptVIP

  1. 1、本文档共37页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
指导老师高新波优秀培训书

NEURAL NETWORKS AND FUZZY SYSTEMS CHAPTER FOUR SYNAPTIC DYNAMICS 1: UNSUPERVISED LEARNING 讲 课 人: 李良群 指导老师:高新波 学习 学习就是对信息进行编码,其目的就是通过向 有限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。 三种学习方式: 编码 我们使用行为(behavioristic)编码准则,如果输入激励为 ,而响应为 ,则该系统对激励-响应 进行了学习。输入输出对 表示函数 的一个样本,函数f将n维矢量X映射到p维矢量Y。 学习过程 如果对所有的输入 都有响应 ,那么我们就说系统对函数进行了学习 若输入 系统就会得到响应 ,则表明系统近似或部分的对函数进行了学习,即系统把相似的输入映射为相似的输出,由此估计出一个连续的函数。 学习与改变 当样本数据改变系统参数时,系统会对这些改变进行自适应或自组织的学习。在神经网络中表现为突触的改变,而不是神经元的改变(尽管有时神经元也学习新的状态)。 注:突触的改变就是权值的学习过程,而神经元的改变只是网络的演化 。 当激励改变了记忆介质并使改变维持相当长一段时间后,我们就说系统学会了 。这也说明了传统的解释学习是半永久的变化。例如,如果我们通过了微积分的考试,那么可以说我们学会了微积分,并且可以持续这种“会“的状态一段时间。 学习与量化 量化的必要性 通常系统只能对样本模式环境中一小部分样本进行学习,而可能的样本数量使无穷的。 系统的存储量是有限的,这就要求系统要通过学习学会用新的样本模式替换旧的样本模式,从而形成样本模式的内部表达或模型。 从而可用学会的模型来定义量化模式 。 学习与量化 量子化 量子化,把样本模式空间 分成k个区域:量子化区域决策组。被学习的原型矢量在一个足够大的模式空间 中定义了 个突触点。当且仅当某个 在 中移动时,系统才进行学习。 矢量量子化规则 矢量量子化可以按照不同的规则进行优化。原型可以扩展以使矢量量子化均方误差最小或使某些数字性能规则最优。更一般的,量子化矢量可以估计样本模式的未知的概率分布,即可从原型矢量的分布可以统计的代表样本模式的未知分布。 无监督和有监督学习 对于两种学习方式,描述样本模式x在样本空间 中的连续分布的概率密度函数 都是未知,只有通过学习来更精确的估计 。 无监督学习对 不作任何的假设,并且只是利用最少限度的信息 。 优点:利用“无标志”的模式样本,“盲目”处理模式样本 ,其计算复杂度小,速度快,适用于高速环境。缺点:精确度低 无监督和有监督学习 对于有监督学习,它假设了一种样本模式分组结构或 性能 。 有监督学习算法还依赖于每个学习样本的分组隶属度信息,即,假设 分成: 所以算法可以检查出错误分组或计算出“错误”信息或矢量。 优点:精确度较高。缺点:速度较慢,计算较复杂。 在神经网络中的区别 有监督学习利用在所有可能的突触值的联系空间中估计出的梯度下降,来估计依赖于的未知均方性能的测度梯度。监督器利用分组隶属度信息来确定数字误差信号或矢量,以引导估计出的梯度下降。 无监督学习类似与生物突触,利用神经信号的局部信息来改变参数,而不利用分组隶属度信息来处理未标志的原始数据。它自适应的把样本模式分成模式簇 ,突触扇入矢量估计样本模式的分组轨迹,这个过程依赖于未知概率密度函数 。 在神经网络中的区别 一般无监督学习规则可用一阶差分或一阶微分方程来定义。一般来说,随机微分方程就定义了一个无监督学习规则,并且描述了突触如何处理局部可用信息。 局部信息 局部信息:突触可以简单获得的,经常是表示突触性质和神经信号性质的信息 。 局部化使突触可以实时、异步地学习,不需要全局的误差信息;也使无监督学习定律的函数空间缩小,从而也使得突触只能获得局部非常有限的信息。 局部的无监督突触把信号和信号联系起来,形成由局部化限定的共轭或相关学习定律。 学习定律中只包含神经元、突触和噪声三项。 借助于联想可以进一步缩小函数空间,它把模式联系起来。通过

文档评论(0)

taotao0b + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档