神经网络考试重点剖析.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神经网络考试重点 熵和信息的关系、性质,什么叫熵,条件熵、联合熵、互信息之间的关系,K-L散度的定义(K-L极小等于极大似然估计)。第十章 答:熵H(X):表示每一个消息所携带的信息的平均量。在H(X)中X不是H(X)的变量,而是一个随机变量的标记。 条件熵:给定Y时X的条件熵为H(X|Y)=H(X,Y)—H(Y) 具有性质:0=H(X|Y)=H(X) 条件熵H(X|Y)表示在观测到系统输出Y后,对X保留的不确定性度量。 H(X,Y)是X和Y的联合熵,由 定义,其中,p(x,y)是离散随机变量X和Y的联合概率质量函数,而x和y表示它们各自的字母表。 互信息:I(X;Y)=H(X)—H(X|Y)= 熵是互信息的一个特例。 熵H(X)表示在没有观测系统输出前我们对系统输入的不确定性,条件熵H(X|Y)表示在观测到系统输出后对系统的不确定性,差H(X)—H(X|Y)表示观察到系统输出之后我们对系统输入的不确定性的减少。 信息的属性: (1)X和Y的互信息具有对称性:I(X;Y)=I(Y;X) (2)X和Y的互信息总是非负的: (3)X和Y的互信息也可以用Y的熵表示为:I(X;Y)=H(Y)—H(Y|X) 定义和的K-L散度为: I(X;Y)= 总的来说,X和Y之间的互信息等于联合概率密度函数以及概率密度函数和的乘积的K-L散度。 ICA原理,推导过程、数学模型、降维。简述PCA原理(第一个成分如何得来,第一、二个成分关系),推导过程(方差最大)。ICA与PCA的差异。 答:ICA的原理: 无噪声信号模型为: X=As, 其中,A为信号混合矩阵,x是N维观测信号向量,s是M (NM) 维原始信号向量。 X=kA. s/k 信号S放大 k 倍与A的相应列缩小k倍的结果相同,从而决定了ICA得到的信号存在强 ICA和PCA的差异:个性和共性。 SVM的基本原理(PPT)、数学模型(线性可分、线性不可分的原理和模型)。 答:支持向量机(SVM)的主要思想是建立一个超平面作为决策曲面,使得正例和反例之间的隔离边缘被最大化。更精确说,支持向量机是结构风险最小化方法的近似实现。 什么是竞争,怎样体现竞争与合作的关系,以及竞争的原理及过程。 答: 自组织神经网络是神经网络最富有魅力的研究领域之一,它能够通过其输入样本学会检测其规律性和输入样本相互之间的关系,并且根据这些输入样本的信息自适应调整网络,使网络以后的响应与输入样本相适应。竞争型神经网络的神经元通过输入信息能够识别成组的相似输入向量;自组织映射神经网络通过学习同样能够识别成组的相似输入向量,使那些网络层中彼此靠得很近的神经元对相似的输入向量产生响应。与竞争型神经网络不同的是,自组织映射神经网络不但能学习输入向量的分布情况,还可以学习输入向量的拓扑结构,其单个神经元对模式分类不起决定性作用,而要靠多个神经元的协同作用才能完成模式分类。 RBF网络模型、原理,XOR问题,正则化网络() 答: RBF的定义:在神经网络的背景下,隐藏单元提供一个“函数”集,该函数集在输入模式(向量)扩展至隐藏空间时为其构建了一个任意的“基”;这个函数集中的函数就被称为径向基函数。 RBF网络的构成:包括三层,每一层都有着完全不同的作用。第一层为输入层,输入层由一些源点(感知单元)组成,将网络与外界环境连结起来;第二层为隐藏层,作用是从输入空间到隐藏空间之间进行非线性变换,在大多数情况下隐藏层具有较高的维数;第三层为输出层,是线性的,为作用与输入层的激活模式(信号)提供响应。 原理:当用RBF神经网络来解决一个复杂的模式分类任务时,问题的基本解决可以通过用非线性方式将其变换到一个高维空间。它的潜在合理性来自模式可分性的cover定理,基本描述如下: 将复杂的模式分类问题非线性地投射到高维空间将比投射到低维空间更肯呢过是线性可分的。 XOR问题: 正则化的基本思想: 通过某些含有解的先验知识的非负的辅助泛函来使解稳定。将正则化参数 视为一个指示器,用来指示所给的数据集作为确定解 的样本的充分性。特别是在极限情况下,当时,表明改问题不受约束,问题解完全决定于所给的样本。另一方面,当时,表明仅由算子D所定义的先验光滑条件就足以得到问题的解,这也是所给样本完全不可信的另一种说法。在实际应用中,正则化参数 取值在上述两个极限值之间。 多层感知器(MLPs)的基本模型,BP算法的基本原理。(第四章) 答: 1、多层感知器(MLPs)的基本模型: 一组感知单元(源节点)组成输入层,一层或多层计算节点的隐藏层,还有一层计算节点的输出层。输入信号在层层递进基础上前向传播通过网络。这些神经网络通常称为多层感知器。 MLPs的特点: 网络中的每一个神经元模型包括一个非线性激活函数; 网络包

文档评论(0)

shuwkb + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档