概率神经网络.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

概率神经网络概述

概率神经网络(ProbabilisticNeuralNetwork,PNN)是由D。F.Specht在1990年提出的。主要思想是贝叶斯决策规则,即错误分类的期望风险最小,在多维输入空间内分离决策空间。它是一种基于统计原理的人工神经网络,它是以Parazen窗口函数为激活函数的一种前馈网络模型。PNN吸收了径向基神经网络与经典的概率密度估计原理的优点,与传统的前馈神经网络相比,在模式分类方面尤其具有较为显著的优势。

1。1概率神经网络分类器的理论推导

由贝叶斯决策理论:

(1—1)

其中。

一般情况下,类的概率密度函数是未知的,用高斯核的Parzen估计如下:

(1-2)

其中,是属于第类的第k个训练样本,是样本向量的维数,是平滑参数,是第类的训练样本总数。

去掉共有的元素,判别函数可简化为:

(1—3)

1。2概率神经元网络的结构模型

PNN的结构以及各层的输入输出关系量如图1所示,共由四层组成,当进行并行处理时,能有效地进行上式的计算。

图1概率神经网络结构

如图1所示,PNN网络由四部分组成:输入层、样本层、求和层和竞争层。PNN的工作过程:首先将输入向量输入到输入层,在输入层中,网络计算输入向量与训练样本向量之间的差值的大小代表着两个向量之间的距离,所得的向量由输入层输出,该向量反映了向量间的接近程度;接着,输入层的输出向量送入到样本层中,样本层节点的数目等于训练样本数目的总和,,其中M是类的总数.样本层的主要工作是:先判断哪些类别输入向量有关,再将相关度高的类别集中起来,样本层的输出值就代表相识度;然后,将样本层的输出值送入到求和层,求和层的结点个数是M,每个结点对应一个类,通过求和层的竞争传递函数进行判决;最后,判决的结果由竞争层输出,输出结果中只有一个1,其余结果都是0,概率值最大的那一类输出结果为1。

基本学习算法

第一步:首先必须对输入矩阵进行归一化处理,这样可以减小误差,避免较小的值呗较大的值“吃掉"。设原始输入矩阵为:

(2—1)

从样本的矩阵如式(2—1)中可以看出,该矩阵的学习样本由m个,每一个样本的特征属性有n个.在求归一化因子之前,必须先计算矩阵:

然后计算:

(2—2)

式中,

则归一化后的学习矩阵为C.在式(2—2)中,符号表示矩阵在做乘法运算时,相应元素之间的乘积。

第二步:将归一化好的m个样本送入网络样本层中。因为是有监督的学习算法,所以很容易就知道每个样本属于哪种类型。假设样本有m个,那么一共可以分为c类,并且各类样本的数目相同,设为k,于是m=k*c。

第三步:模式距离的计算,该距离是指样本矩阵与学习矩阵中相应元素之间的距离。假设将由P个n维向量组成的矩阵称为待识别样本矩阵,则经归一化后,需要待识别的输入样本矩阵为:

(2—3)

计算欧氏距离:就是需要是别的样本向量,样本层中各个网络节点的中心向量,这两个向量相应量之间的距离:

(2—4)

第四步:样本层径向基函数的神经元被激活。学习样本与待识别样本被归一化后,通常取标准差的高斯型函数。激活后得到出事概率矩阵:

(2—5)

第五步:假设样本有m个,那么一共可以分为c类,并且各类样本的数目相同,设为k,则可以在网络的求和层求得各个样本属于各类的初始概率和:

(2—6)

上式中,代表的意思是:将要被识别的样本中,第i个样本属于第j类的初始概率和。

第六步:计算概率,即第i个样本属于第j类的概率。

(2-7)

特点

概率神经网络具有如下特性:

训练容易,收敛速度快,从而非常适用于实时处理;

可以完成任意的非线性变换,所形成的判决曲面与贝叶斯最优准则下的曲面相接近;

具有很强的容错性;

模式层的传递函数可以选用各种用来估计概率密度的核函数,并且,各分类结果对核函数的形式不敏感;

各层神经元的数目比较固定,因而易于硬件实现.

4。不足之处

概率神经网络的不足主要集中在其结构的

您可能关注的文档

文档评论(0)

192****6103 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档