- 1、本文档共63页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
如果某个变换有n个不同的特征值,则可以保证得到该变换n个线性无关的特征向量,因此特征向量组成变换的向量空间的一个基集。 * 性能曲面和最优点 介绍的是一类称为性能学习的神经网络训练的基础知识。神经网络有几种不同类型的学习规则,如联想学习(Hebb学习)和竞争学习。性能学习是一类重要的学习规则,其目的在于调整网络参数以优化网络性能。主要目的是研究性能曲面,并确定性能曲面存在极大点和极小点的条件。 * 性能优化 这种优化过程分两个步骤进行。第一步是定义“性能”的含义。换言之,需要找到一个衡量网络性能的定量标准,即性能指数,性能指数在网络性能良好时很小,反之则很大。优化过程的第二步是搜索减小性能指数的参数空间(调整网络权值和偏置值)。 * 泰勒级数 假定性能指数是一个解析函数,它的各级导数均存在。 * * 向量的情况 神经网络的性能指数并不仅是一个纯量的函数,它是所有网络参数(各个权值和偏置值)的函数,参数的数量可能是很大的。因此,需要将泰勒级数展开形式扩展为多变量形式。 * * * 方向导数 * * 最大斜率在什么方向上?当方向向量与梯度的内积最大时斜率最大,故当方向向量与梯度同向时会出现最大斜率(注意方向向量的长度对此没有影响,因为它已被规格化)。 * 极小点 * * * * go 神经网络的数学基础 * 信号和权值向量空间 将神经网络的输入、输出以及权值矩阵的行作为向量看待是非常有好处的。这些都是中的向量。 是标准的n维欧基里德空间 * 线性向量空问 * 如图1所示。显然它是一个向量空间,并且对于向量加和标量乘全部满足10个条件。 的子集又将如何? 考虑图2中方框内的区域x。向量x和y在区域内,但是x+y却可能不在的区域内。从这个例子可以看出,任何限定边界的集合都不可能是向量空间。 所有经过坐标轴原点的直线都满足上述10个条件。但是,如果直线不经过坐标轴的原点,那么至少这种直线不能满足第4个条件。 * 如果已经习惯于将向量看作是一列数字,那么这两个元素的确是奇怪的向量。但是请记住:一个集合只要满足上述10个条件,就可以被认为是一个向量空间。 例如考虑最高阶数小于或等于2的多项式集合此集合的两个元素是: * 由于两个连续函数的和仍然是一个连续函数,一个标量乘以一连续函数仍然是一个连续函数,所以集合也是一个向量空间这个集合与前面讨论过的向量空间不同,它是无限维的。 * 线性无关 线性无关与之相反,如果 当且仅当每个均等于零,那么称其是一组线性无关的向量。注意这些定义实际上等价于:如果一个向量集合是无关的,那么这个集合中的任何向量都不能表示成该集合中其他向量的线性组合。 * 生成空间 X的基集是由生成它的线性无关的向量所组成的集合。任何基集包含了生成空间所需要的最少个数的向量。X的维数就等于基集中元素的个数。任何向量空间都可以有多个基集,但每一个基集都必须包含相同数目的元素。 * * 内积 * 范数 * 正交性 * 向量展开式 * 互逆基向量 如果需要向量展开式,而基集又不是正交的,那么就必须引人下列等式所定义的互逆基底: * * * * * * * 由此可以看出,当要用一列数字表示一个一般向量时,必须知道其向量展开式所采用的基集是什么。在如果没有特殊说明,那么假设所采用的都是标准基集。 * Gram矩阵 只是向量个数比这些向量的原始空间中向量个数要少(R4空间中的3个向量)。在这种情况下,由这3个向量所构成的矩阵不再是一个方阵,所以不能计算其行列式的值。可以采用称为Gram的方法,这种方法按可以求出一个矩阵的行列式,矩阵的第i行第j列的元素是向量i和向量j的内积。这些向量是线性相关的当且仅当G矩阵的行列式为零。 * * 神经网络中的线性变换 诸如特征值、特征向量和基变换等基本概念,这些概念对理解一些诸如性能学习(反传学习算法)以及Hopfield网络的收敛特性等神经网络关键课题是十分重要的。 * 线性变换 变换:一个变换由三部分组成 * 旋转变换 两个向量之和的旋转 伸缩向量的变换 * 矩阵表示 可以证明两个有限维向量空间之间的任何线性变换都可以用一个矩阵来表示(这和在有限维的向量空间中的任何一个向量可以用一个数列来表示是一样的)。 请记住:与一般向量的数列表示形式并不是惟一的类似,一个变换的矩阵表示也不是惟一的。如果改变定义域或值域的基集,那么变换的矩阵表示也会随之改变。 * 以旋转变换为例,来讨论变换的矩阵表示,看看如何找到该变换的矩阵表示。 * 可以看到展式中的两个系数就是的矩阵中的第一列。 * 从展式中可以得到矩阵表示中的第二列。所以,完整的矩阵表示可以由下式: * 特征值和特征向量 考虑一个线性交换: : (定义域和值域相同)。分别称满足下式的那些不等于0的向量和标量分别
您可能关注的文档
最近下载
- 大学英语六级词组大全.pdf
- 环境监测技能竞赛考试参考题库大全-中(多选题).pdf VIP
- rcwl-9610低成本分体开放式超声波测距芯片.pdf VIP
- (高清版)DB33∕T 2110.5-2018 实验动物 长爪沙鼠 第5部分:配合饲料营养成分.pdf VIP
- 大学物理(山东联盟)智慧树知到期末考试答案章节答案2024年青岛科技大学.docx VIP
- 《个人所得税培训》课件.ppt VIP
- 实验室生物安全管理体系内审表(2011).docx VIP
- 价值流分析.ppt.ppt VIP
- 小学三年级数学应用题大全(夺冠系列).docx VIP
- 一种SGH换热器以及垃圾发电系统.pdf VIP
文档评论(0)