神经网络与 配套ppt Ch12pres(RBF) .pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神经网络与 配套ppt Ch12pres(RBF)

12+ * 径向基函数(RBF)网络 RBF网络结构 径向基神经元结构 径向基神经元的净输入采用距离函数(如欧式距离)乘以偏置,并使用径向基函数作为激活函数。 权又称为中心 1. 高斯函数: 2. 反射S形函数: 3. 逆多二次函数: δ 称为基函数的扩展常数或宽度,δ 越小,径向基函数的宽度越小,基函数就越有选择性。 径向基函数(RBF) RBF网络结构(续) RBF网络结构(续) 网络结构 RBF网络是个三层结构(R-S1-S2)的前馈网,其中,R代表输入层并指出输入维数; S1代表由径向基神经元构成的隐层并指出神经元数目; S2是线性输出层。 RBF网络结构(续) RBF网络层间的连接 输入层到隐层之间的权值(中心)固定 隐层到输出层之间的权值可调 RBF网络工作原理 RBF网络的三层的作用 输入层将网络与外界环境连接起来 隐层是非线性的,实现从输入空间到隐层空间之间的非线性变换 输出层是线性的,完成隐层输出的加权和 RBF网络是一种局部逼近网络 能以任意精度逼近任一连续函数 常用于解决函数逼近和分类问题 RBF网络工作原理(续) RBF网络的工作原理 函数逼近:以任意精度逼近任一连续函数。一般函数都可表示成一组基函数的线性组合,RBF网络相当于用隐层单元的输出构成一组基函数,然后用输出层来进行线性组合,以完成逼近功能。 分类:解决非线性可分问题。RBF网络用隐层单元先将非线性可分的输入空间设法变换到线性可分的特征空间(通常是高维空间),然后用输出层来进行线性划分,完成分类功能。 RBF网络实现内插问题 内插问题(数值逼近) 给定样本数据: 寻找函数,使之满足:    , RBF网络解决内插问题 网络隐层使用Q个隐节点 把所有Q个样本输入分别作为Q个隐节点的中心 各基函数取相同的扩展常数 确定权值可解线性方程组: 设第j 个隐节点在第i个样本的输出为: , 可矩阵表示: ,若R可求逆,则解为: 。 根据Micchelli定理可得,如果隐节点激活函数采用径向基函数,且 各不相同,则线性方程组有唯一解。 RBF网络实现内插问题(续) RBF网络的输出为: 其中 为隐节点的激活函数( RBF函数); 是第 j个隐节点的RBF函数的数据中心。 RBF网络的结构为: RBF网络实现内插问题(续) RBF网络可实现对样本完全内插,即在所有样本点网络输出误差为0。 网络的隐层节点数等于样本数,当样本数较多时,网络的结构将过大,前述方法中矩阵R也大,使得它的条件数( 矩阵的最大特征值与其最小特征值的比)可能过大,从而导致求逆时不稳定。 同样,当样本数较多时,网络结构将过大,从而有可能导致网络的泛化性能降低。 为了提高网络的泛化性能,可以采用下面讨论的广义RBF网络和正则化网络。 广义RBF网络 隐层节点数(径向基函数个数)远小于样本数,通常有: 径向基函数的中心不再限制在样本点上,即有: 径向基函数的扩展常数不一定要统一 RBF网络的学习算法 学习算法要确定的参数: 网络隐层神经元的个数(结构设计) 确定各径向基函数的数据中心 扩展常数 连接隐层到输出层的权值 RBF网络的学习算法 中心固定方法 随机从训练数据中选取网络中隐节点的数据中心,并根据各数据中心之间的距离确定隐节点的扩展常数 然后用有监督学习(伪逆或LMS方法)确定输出层节点的权值 中心自组织选取方法 先用无监督学习(k-均值聚类算法对样本输入进行聚类)方法确定网络中隐节点的数据中心,并根据各数据中心之间的距离确定隐节点的扩展常数 然后用有监督学习(仿逆或LMS方法)确定输出层节点的权值 RBF网络的学习算法(续) 梯度方法 用梯度方法原理,通过最小化性能指数实现对各隐节点数据中心、扩展宽度和权值的调节 交替梯度方法 为提高网络的训练效率,将梯度方法分为两阶段,这两个阶段交替进行训练,直到达到要求的精度为止 输入层-隐层阶段:固定网络的权值,训练网络的中心和扩展宽度 隐层-输出层阶段:固定网络的中心和扩展宽度,训练网络的权值 RBF网络的特点 只有一个隐层,且隐层神经元与输出层神经元的模型不同。 隐层节点激活函数为径向基函数,输出层节点激活函数为线性函数。 隐层节点激活函数的净输入是输入向量与节点中心的距离(范数),而非向量内积,且节点中心不可调。 隐层节点参数确定后,输出权值可通过解线性方程组得到。 隐层节点的非线性变换把线性不可分问题转化为线性可分问题 RBF网络的

文档评论(0)

qiwqpu54 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档