基于神经网络预测器的传感器数据证实技术研究.docVIP

基于神经网络预测器的传感器数据证实技术研究.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于神经网络预测器的传感器数据证实技术研究.doc

  基于神经网络预测器的传感器数据证实技术研究|第1 内容加载中... 摘要:提出了基于神经网络预测器的传感器数据证实技术。首先利用神经网络对传感器输出的时间序列建立预测模型,然后利用该模型预测出传感器由值,并且该值与传感器实际输出值之数据的影响。同时,为了实现在线应用,采用了遗传算法对神经网络的优化技术。 关键词:传感器数据证实 神经网络 遗传算法 对于高速、大容量、高性能的复杂装置和设备,在运行中如果出现故障往往会产生巨大的、甚至是灾难性的后果。对这些装置和设备运行状态的监测与诊断是解决其可靠性、安全性的关键途径之一。作为测量控制系统中诸参量的关键部件,500)this.style.ouseg(this)传感器被广泛地应用到这些装置和设备中。可以说,传感器技术是现代测试和控制技术的灵魂,传感器输出信号的质量关系到整个系统性能的好坏程度。事实上,传感器是测试控制系统比较容量损坏的部件,因此系统应用具备对传感器故障的容错能力。目前,传感器故障诊断较多地采用冗余方法和神经网络识别方法。这些方法都需要利用传感器的输出信号,且研究较多的是判别传感器的“硬故障”(即突然发生的损坏或完全失效)。对于传感器的“软故障”(如偏置、漂移或标定系数的偏移等)的研究工作,开展得还不多,存在很多问题急需解决。为此,本文提出一种基于神经网络预测器的传感器数据证实技术。 1 神经网络预测器原理 神经网络具有很强的非线性映射能力。一个三层的前馈神经网络具有映射任意函数关系的能力,且不需要对所分析的时间序列作任何假设。500)this.style.ouseg(this)因此神经网络非常适用于时间序列预测,且神经网络预测模型具有良好的适应性、自学习和抗干扰能力强等特点。在建立神经网络预测模型进行时序预测的过程中,如何选择、研究预测网络的拓扑结构是非常重要的,这将直接影响预测的精度。要提高神经网络预测模型的预测精度,可以采取以下途径: 增加网络模型的训练样本数。这样可以使得神经网络得到更好的训练和学习,从而更准确地学习和掌握时间序列内在变化、发展规律,提高预测质量; 适当增加神经网络的输入层节点数。因为如果神经网络的输入层节点数过少,将使神经网络无法达到对时间序列的良好拟合,从而降低神经网络的预测精度。但并非神经网络的输入层节点数越多越好。相反,如果输入层节点数过多,则将减慢预测网络的训练和收敛速度,并使网络模型过于复杂,导致网络预测能力的恶化。 随着网络规模的扩大以及训练样本复杂度的增加,BP算法存在收敛速度慢、振荡,特别是受到局都最优的困扰,很难保证得到全局最优解。为了能在线应用,因此对网络进行优化是必要的。本文采用遗传算法(GA)来优化网络的权值以提高网络训练速度达到在线应用的需要。 GA的计算过程为:500)this.style.ouseg(this) 选择编码方式 产生初始群体 计算初始群体的适应性值 如果不满足中止条件{ 选择(selection) 交换(crossover) 变异(mutation) 计算新一代群体的适应性值 }500)this.style.ouseg(this) 遗传算法的实现涉及5个主要因素:参数的编码、初始群体的设定、评估函数即适应函数的设计、遗传操作(选择、交*、变异)的设计和算法控制参数的设定。所有这些因素的实现都是基于模式定理和积木块假设的。本文初始群体数目为40~100,算法控制参数为神经网络的权值,参数采用二进制编码,适应度函数为神经网络的能量函数。 采用GA算法和梯度法的结合即混合优化方法,具体步骤如下: (1)确定适应度函数。对BP网络,定义其能量函数为: 500)this.style.ouseg(this) 式中,Yki为第k个训练样本第i个输入节点的实际输出,Yki为第k个训练样本第i个输入节点的期望输出。 神经网络的优化过程即是调整权矩阵为群体个数。第i个网络的f(个原始解。 (3)选种评价各个适应度大的个体作为下一代的样本,转步取胜(3),直至群体适应度趋于稳定。 (6) 确定区域收缩方向及区域变化值。群体适应度稳定后,从群体中选取出最佳个体((mgt;1)个时刻的值,即进行m步预测,可取序列中n个相邻的样本为滑动窗并将它们映射为m个值。这m个值表示在该窗之后的m个时间上的样本预测值。表2列出了训练数据的一种分段方法。把训练数据分成k段长度为n+m的有一定重叠的数据段,每一段的头n个数据作为网络的输入,后m个数据则作为相应的网络输出。 表2 k对训练样本数据分段示意 样本号n个输入值m个标准输出值1 2 … kx(1)…x(n) x(2)…x(n+1) ……… x(k)… x(n+k)x(n+1)…x(n+m) x(n+2)…x(n+m

文档评论(0)

ggkkppp + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档