- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
故障特征提取的方法研究(1)
摘要:针对常规特征提取方法存在
着问题不足,提出了基于 BP 神经网络和基于互信息熵的特征提取方法,并通过 特征提取实例加以说明。结果表明这两种方法是可行和有效的。
关键词:特征提取 故障诊断 神经网络 互信息熵
随着科学技术的发展,现代设备的结构日趋复杂,其故障类型越来越多,反映 故障的状态、特征也相应增加。在实际故障诊断过程中,为了使诊断准确可靠, 总要采集尽可能多的样本,以获得足够的故障信息。但样本太多,会占用大量 的存储空间和计算时间,太多的特征输入也会引起训练过程耗时费工,甚至妨 碍训练网络的收敛,最终影响分类精度。因此要从样本中提取对诊断故障贡献 大的有用信息。这一工作就是特征提取。
特征提取就是利用已有特征参数构造一个较低维数的特征空间,将原始特征中 蕴含的有用信息映射到少数几个特征上,忽略多余的不相干信息。从数学意义 上讲,就是对一个 n 维向量 X=[x1,x2,…,xn]T 进行降维,变换为低维向量 Y=[y1,y2,…,ym]T,mn。其中 Y 确实含有向量 X 的主要特性。
特征提取的方法有很多,常用的方法主要有欧式距离法、概率距离法、统计直 方图法、散度准则法等。本文针对现有方法的局限性,研究基于 BP 神经网络的 特征提取方法和基于互信息熵的特征提取方法。
1 基于 BP 神经网络的特征提取方法
要从 N 个特征中挑选出对诊断贡献较大的 n 个特征参数(nN),通常以特征参数 X 对状态 Y 变化的灵敏度 ε 作为评价特征参数的度量:
εij=|(аYi)/(аXj)|
采用三层 BP 网络,输入层 n 个单元对应 n 个特征参数,输出层 m 个单元对应 m 种模式分类,取中间隐层单元数为 q,用 W B iq 表示输入层单元 i 与隐层单元 q 之间的连接权;用 w O qj 表示隐层单元 q 与输出层单元 j 之间的连接权,则 隐层第 q 单元的输出 Oq,为:
输出层第 j 个单元输出 yj 为:
式中 j=1,2,…,m;εj 为阈值。
则特征参数 xi 对模式类别 yj 的灵敏度为:
代入(1)式,则特征参数 Xi 的灵敏度 εij 和特征参数 Xk 的灵敏度 εkj 之差 可整理为:
大量的试验和研究表明,当网络收敛后有:a1≈a2≈…≈aq。
从上式可以看出,如果:
则必有:εij>εki
即特征参数 Xi 对第 j 类故障的分类能力比特征参数 Xk 强。
将特征参数 X 和分类模式分类结果 y 组成的样本集作为 BP 网络的学习样本,对 网络进行训练。设 Wiq 和 Wkq 分别为与特征参数 Xi 和 Xk 对应输入单元与隐层 单元 q 之间的连接权系数,记:
│Wεi│=│Wi1│+|Wi2|+…+|Wiq|
│Wεk│=│Wk1│+|Wk2|+…+|Wkq|
如果│Wεi││Wεk│,则可以认为 Xi 的特征灵敏度 εi 比特征参数 Xk 的灵 敏度 εk 大。这样可知特征参数 Xi 的分类能力比特征参数 Xk 的分类能力强。
2 基于互信息熵的特征提取方法
由信息特征可知,当某特征获得最大互信息熵,该特征就可获得最大识别熵增 量和最小误识别概率,因而具有最优特性。特征提取过程就是在由给定的 n 个 特征集 X 二{XI~X2,…,zn)所构成的初始特征集合情况下,寻找一个具有最大 互信息熵的集合:X={X1,X2,…,Xk},kn。由于最大互信息熵由系统熵和 后验熵决定,而系统熵是一定的,后验熵越小,则互信息熵越大,分类效果越 好。因此有效的特征提取就是在 X 给定后,寻找一个具有最大互信息熵或后验 熵的集合 Y。即已知该域 R 上的初始特征集合 X=[x1,x2,…,xn]T,寻找一 个新的集合 Y=[y1,y2,…,yk]T,kn,使互信息熵最大,i=1,2,…,k。
在一定的初始特征集合下,识别样本的后验熵是一定的。在实现特征优化过程 中,随着特征的删除,会有信息的损失,使得后验熵趋于增加。因此后验熵增 值大小反应了删除特征向量引起的信息损失的情况。当删除不同特征及删除特 征数逐步递增时,会对应有不同的后验熵。按后验熵由小到大排列,可获得对 应的特征删除序列。其过程可描述为:
初始化:设原始特征集合 F={N 个特征},令初始优化特征集合 S=[K 个特 征,K=N];
计算后验熵;
实现递减:S=[K-1 个特征],并计算相应的后验
文档评论(0)