组合核相关向量机在变压器故障诊断中应用.docVIP

组合核相关向量机在变压器故障诊断中应用.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
组合核相关向量机在变压器故障诊断中应用

组合核相关向量机在变压器故障诊断中应用   【摘要】文章对组合核学习和组合核核参数优化进行了研究,提出了基于K折交叉验证和遗传算法相结合的核函数参数优化方法,对MKL-RVM进行了优化。在此基础上,尝试将MKL-RVM应用于油浸式电力变压器故障诊断,以融合蕴含变压器运行状态的多种特征信息,从而提高诊断正确率。该方法同样可以输出变压器为各种状态的概率,为变压器的检修提供更多的可用信息。   【关键词】变压器;故障诊断;核向量机;检测   1.引言   变压器是电力系统中重要是设备,其运行状态影响着整个系统的安全运行,而历史数据显示变压器是容易出故障的设备,基于此,对变压器的故障进行合理而准确的诊断是当前面临的重要任务,文章就这个问题进行了分析。   2.算法介绍   文章采用分层贝叶斯模型结构,通过引入多项概率似然函数(Multinomial Probit Likelihood)[1-4],实现了非同构的多信息数据或多特征信息的有机融合以及多分类问题,MKL-RVM原理示意图如图1所示,图中S为信息数据的种类,为组合核参数。   图1 MKL-RVM原理示意图   Fig.1 MKL-RVM schematic diagram   设信息数据(一类信息数据或多类信息数据)经特征提取获得个特征空间。来自特征空间的样本数据集记为,,,,其中为样本数,为特征向量的维数,为类别数。当给定核函数时,可得基核矩阵,,定义组合核矩阵,组合核矩阵的元素可由式(1)得到。   (1)   其中:——核函数;   ——组合核函数。   引入辅助回归目标变量和权重参数,可得标准噪音回归模型如式(2)。   (2)   其中:——的第行列的元素;   ——的第的列;   ——的第行;   ——代表服从均值为方差为的正态分布。   引入多项概率联系函数如式(3),将回归目标转化为类别标签。   (3)   由此可以得到多项概率似然函数如式(4)。   (4)   其中:——标准正态分布的期望;   ——高斯累计分布函数。   为了确保模型的稀疏性,为权重向量引入零均值[5],方差为标准正态先验分布。为先验参数矩阵中的元素,服从超参数为,的Gamma分布。  ???由此可见MKL-RVM同样采用的是分层贝叶斯模型结构,模型结构示意图如图2所示。   图2 分层贝叶斯模型   Fig.4-2 Hierarchical Bayesian model   图3 CV数据集划分示意图   3.算法改进   鉴于K折交叉验证可以确保所有的样本数据都参与模型的训练和验证[6-8],而遗传算法则具有较好的全局寻优能力,提出了基于K折交叉验证和遗传算法相结合的核函数参数优化方法,以提高MKL-RVM的性能。该方法采用K折交叉验证来评估待选择的核函数参数,采用遗传算法选取核函数参数。   数据挖掘和机器学习中,关键任务是在获取的数据集上进行模型学习、模型性能评估和模型选择,该模型可能是回归模型或分类器模型。交叉验证(Cross Validation,CV)起源于20世纪30年代,起初仅是用于模型性能评估,20世纪70年代Stone and Geisser将其用于模型参数选择,现今CV已成为数据挖掘和机器学习中模型性能评估和模型选择的有效方法[9]。   常见CV的方法有:Hold-Out Method,K-fold Cross Validation(记为:K-CV)和Leave-One-Out Cross Validation(记为:LOO-CV)。   (1)Hold-Out Method   Hold-Out Method:是将样本数据按一定的比例随机地分为训练集和验证集,训练集用于模型学习,验证集用于模型的验证。   (2)K-fold Cross Validation   K-CV方法:设样本数据集为,,X为输入向量空间,Y为类别向量空间。K-CV方法首先将数据集D随机地分成元素个数近似相等的K个相互独立的子集。然后用D-Dt(“-”为集合差运算,)对模型进行训练,用Dt对模型进行验证,数据集划分示意图如图3所示。该方法将得到K个模型,可以通过计算K个模型的平均正判率对模型性能进行评估(Model Performance Estimation)。Duan等人建议采用5-CV。   4.结论   (1)该方法采用K个MKL-RVM分类器模型的平均正判率评估模型性能,作为选择MKL-RVM分类器核函数参数的标准,可以使优化得到的MKL-RVM分类器参数具有很好的推广性;   (2)K-CV方法可以确保所有的样本数据都参与MKL-RVM分类器模型的训练和验证,能够充分利用有限的样本数据;

文档评论(0)

317960162 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档