绝对经典神经网络.pptVIP

  • 1
  • 0
  • 约4.54千字
  • 约 29页
  • 2023-09-15 发布于广东
  • 举报
第一页,共二十九页,2022年,8月28日 1. Gauss(高斯)函数: 2. 反演S型函数: 3. 拟多二次函数: σ 称为基函数的扩展常数或宽度, σ越小,径向基函数的宽度越小,基函数就越有选择性。 径向基函数(RBF) 第二页,共二十九页,2022年,8月28日 全局逼近和局部逼近 全局逼近网络 局部逼近网络 当神经网络的一个或多个可调参数(权值和阈值)对任何一个输出都有影响,则称该神经网络为全局逼近网络。 对网络输入空间的某个局部区域只有少数几个连接权影响网络的输出,则称该网络为局部逼近网络 学习速度很慢,无法满足实时性要求的应用 学习速度快,有可能满足有实时性要求的应用 第三页,共二十九页,2022年,8月28日 RBF网络的工作原理 函数逼近: 以任意精度逼近任一连续函数。一般函数都可表示成一组 基函数的线性组合,RBF网络相当于用隐层单元的输出构 成一组基函数,然后用输出层来进行线性组合,以完成 逼近功能。 分类: 解决非线性可分问题。RBF网络用隐层单元先将非线性可 分的输入空间设法变换到线性可分的特征空间(通常是高 维空间),然后用输出层来进行线性划分,完成分类功能。 第四页,共二十九页,2022年,8月28日 RBF神经网络两种模型 正规化网络RN 广义网络GN 通用逼近器 模式分类 基本思想: 通过加入一个含有解的先验知识的约束来 控制映射函数的光滑性,若输入一输出映射 函数是光滑的,则重建问题的解是连续的, 意味着相似的输入对应着相似的输出。 基本思想: 用径向基函数作为隐单元的“基”,构成隐含 层空间。隐含层对输入向量进行变换,将低维 空间的模式变换到高维空间内,使得在低维 空间内的线性不可分问题在高维空间内线性可分。 第五页,共二十九页,2022年,8月28日 两种模型的比较 隐节点=输入样本数 隐节点<输入样本数 所有输入样本设为 径向基函数的中心 径向基函数的中心 由训练算法确定 径向基函数 取统一的扩展常数 径向基函数的扩展常数 不再统一由训练算法确定 没有设置阈值 输出函数的线性中包含阈值参数, 用于补偿基函数在样本集上的 平均值与目标值之平均值之间的差别。 RN GN 第六页,共二十九页,2022年,8月28日 函数逼近问题(内插值) 一般函数都可表示成一组基函数的线性组合,RBF网络相当于用隐层单元的输出构成一组基函数,然后用输出层来进行线性组合,以完成逼近功能。①给定样本数据 ②寻找函数,使其满足: 第七页,共二十九页,2022年,8月28日 1.网络隐层使用Q个隐节点。 2.把所有Q个样本输入分别作为Q个隐节点的中心。 3.各基函数取相同的扩展常数。 4.确定权值可解线性方程组: 设第j 个隐节点在第i个样本的输出为: 可矩阵表示: ,若R可逆,则解为 根据Micchelli定理可得,如果隐节点激活函数采用 径向基函数,且 各不相同,则线性方程组 有唯一解。 RBF网络输出 第八页,共二十九页,2022年,8月28日 举例:RBF网络实现函数逼近 1.问题的提出:假设如下的输入输出样本,输入向量为[-1 1]区间上等间隔的数组成的向量P,相应的期望值向量为T。 P=-1:0.1:1; T=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 0.0988 0.3072 0.3960 0.3449 0.1816 -0.0312 -0.2189 -0.3201]; %以输入向量为横坐标,期望值为纵坐标,绘制训练用样本的数据点。 figure; plot(P,T,+) title(训练样本) xlabel(输入矢量P) ylabel(目标矢量T) grid on %目的是找到一个函数能够满足这21个数据点的输入/输出关系,其中一个方法是通过构建径向基函数网络来进行曲线拟合 第九页,共二十九页,2022年,8月28日 2.网络设计:设计一个径向基函数网络,网络有两层,隐含层为径向基神经元,输出层为线性神经元。 p=-3:0.1:3; a=radbas(p); figure; plot(p,a) title(径向基传递函数) xlabel(输入p) ylabel(输出a) grid on % 每一层神经元的权值和阈值都与径向基函数的位置和宽度有关系,输出层的线性神经元将这些径向基函数的权值相加。如果隐含层神经元的数目足够,每一层的权值和阈值正确,那么径向基函数网络就完全能够精确的逼近任意函数。 a2=radbas(p-1.

文档评论(0)

1亿VIP精品文档

相关文档