模式识别课件 第8章.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模式识别课件 第8章.ppt

8.6.2 Neuron Model Network Architecture The architecture of a network consists of a description of how many layers a network has, the number of neurons in each layer, each layer’s transfer function, and how the layers connect to each other. The best architecture to use depends on the type of problem to be represented by the network. Any reasonable function can be represented with a two-layer network: a sigmoid layer feeding a linear output layer. Networks with biases can represent relationships between inputs and outputs more easily than networks without biases. Toolbox 8.6.3 Perceptrons Introduction Neuron Model Perceptron Architecture Learning Rules: perceptron learning rule (learnp) Training Limitations and Cautions Graphical User Interface Summary nnd4db/ nnd4pr :newp Toolbox 8.6.4 Linear Filters Introduction Neuron Model Perceptron Architecture Learning Rules: LMS Algorithm, Widrow-Hoff learning algorithm (learnwh) Training Limitations and Cautions Summary :newlin Toolbox 8.6.5 Backpropagation Introduction Model Architecture Training: backpropagation algorithms Faster Training Limitations and Cautions Summary : newff, newrb, newpnn Toolbox 8.6.6 Competitive Network Introduction Competitive Learning Self-Organizing Maps Learning Vector Quantization Networks Summary : newc, newsom, newlvq Toolbox 讨论 人工神经网络是由大量神经元经广泛互联组成的非线性网络,单元间的连接强度从样本中学习 神经网络模型决定于神经元类型,神经元间的连接方式和学习算法 MLP、RBF和SOFM是模式识别中应用最多的几种模型 习题 解释Hebb学习规则的基本思想 浏览Matlab的neural network toolbox的帮助文档(perceptron, linear filter, bp) 写出C-Means算法双层神经网络实现的算法描述或画出流程图 以两类情况为例,证明当神经网络输出采用“c中取1”编码,隐层和输出层神经元均采用Sigmoid函数,训练准则函数为最小MSE,则MLP的输出就是对贝叶斯后验概率的估计 感知器学习算法举例 前馈 网络 感知器学习算法演示见nnd 3. 多层感知器 多层感知器: Multi-Layer Perceptron, MLP Architecture: 前馈 网络 多层感知器的一致逼近性 逻辑功能:单个阈值神经元可以实现任意多输入的与、或及与非、或非逻辑门 任何逻辑函数可由两层前馈网络实现 当神经元的输出函数为Sigmoid等函数时,两层前馈网络可以逼近任意的多元非线性函数 MLP的适用范围大大超过单层网络 前馈 网络 XOR问题 任何一个逻辑电路都可以只用XOR门来实现, XOR是通用门 (universal logic gate) 单层感知器不能解决XOR问题 两层感知器可以解决XOR问题 前馈 网络 4. C-Means算法双层神经网络实现 采用双层神经网络结构,如图所示: 输入节点数等于输入模式矢量

文档评论(0)

只做精品 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档