网站大量收购独家精品文档,联系QQ:2885784924

基于支持向量机轮胎中PU综合性能预测应用.docVIP

基于支持向量机轮胎中PU综合性能预测应用.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于支持向量机轮胎中PU综合性能预测应用

基于支持向量机轮胎中PU综合性能预测应用   摘要:为了更好聚氨酯(PU)绿色轮胎原料的批量投产和产业化过程中进行实时的产品质量预测与控制打下了良好的基础。本文利用支持向量机对PU弹性体制备过程中的综合性能指标建立预测模型,同时获得较好的预测精度。   Abstract: Support Vector Machine is a novel statistical learning machine based on structural risk minimization principle instead of empirical risk minimization principle. In this paper, it makes classical regression analysis with artificial intelligence in the model of prediction based on standard CRISP-DM process, and also makes a foundation for the prediction and control of quality of PU material in real production process. The result shows that the proposed method can give more accurate learning precision and better generalization ability.   关键词:支持向量机;回归;聚氨酯(PU);预测与控制   Key words: Support Vector Machine;regression;PU;prediction and control    中图???类号:FTP39 文献标识码:A 文章编号:1006-4311(2012)11-0154-02      0 引言   近年来支持向量机在数据挖掘中越来越受到重视,特别是在决策支持系统中应用广泛并产生了很多应用系统。支持向量机在非线性建模与预测、优化控制等方面的研究方面也表现了极好的性能。本文将用支持向量机回归算法建立预测模型,它通过对样本数据的训练学习来建立回归模型,提高了模型的可用性和预测精度。   1 支持向量机回归原理   1.1 支持向量机介绍 首先考虑线性回归图1(a)。设数据样本为n维向量,某区域的L个数据样本及其值的表示为:   (x1,y1),…,(xl,yl)∈Rn×R(1)   线性函数设为:f(x)=ω?x+b(2)   最优化问题即最小化:R(ω,ξ,ξ*)=ω?ω+C(ξ+ξ*)(3)   约束条件为:f(xi)-yiξ*+ε,i=1,…,l(4)   f(xi)-yiξ+ε,i=1,…,l(5)   ξ*,ξ0, i=1,…,l(6)   式(3)中第一项使函数更为平坦,从而提高了泛化能力,第二项为减小误差,常数C对两者做出折中。ε为一正常数。f(xi)与yi的差别小于ε时不计误差,大于ε时误差计为f(x)-y-ε。这也是一个凸二次优化问题,引入拉格郎日函数:   L(ω,b,ξ,ξ,α,α,γ,γ)=ω?ω+C(ξ+ξ)-α[ξ+ε-y+f(x)]-α[ξ+ε+y-f(x)]-(ξγ-ξγ)(7)   其中,α,α0;γ,γ0;i=1,…,l。   函数L应对ω、b、ξ、ξ最小化,对α、α、γ、γ最大化,函数L的极值应满足条件:=0,=0,=0,=0(8)   (α-α)=0(9)   从而得到:ω=(α-α)x(10)   C-α-γ=0, i=1,…,l(11)   C-α-γ=0, i=1,…,l(12)   将式(9)~式(12)代入式(7),可以得到最优化问题的对偶形式,最大化函数:W(α,α)=-(α-α)(α-α)(x-x)+    (α-α)y-(α+α)ε(13)   其约束为:ω=(α-α)x(14)   0α,αC i=1,…l(15)   这也是一个二次优化问题,ω可由式(8)得到,b的求法与分类情况相同。   从而得到回归函数:   f(x)=(α-α)(x?x)+b(16)   1.2 非线性支持向量机回归 非线性回归图1(b)。首先,使用一非线性映射把数据映射到一个高维特征空间,再在高维特征空间进行线性回归。其关键问题也是核函数K(x,y)的使用。这里,优化问题成为在式(14)和式(15)的约束下最大化函数:    W(α,α)=-(α-α)(α-α)K(x?x)+(α-α)y-(α+α)ε(17)   此时:ω=(α-α)(x)(18)   函数f(x

文档评论(0)

bokegood + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档