- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
支持向量回归参数优化
支持向量回归参数优化
【摘 要】支持向量回归的待定参数的选取对它的学习效果具有很大的影响力。本文采用粒子群算法对参数的组合进行优化,进而获取最优的参数值。粒子群算法是一种随机全局优化算法,研究表明,将粒子群算法优化支持向量回归参数,具有很好的效果。
【关键词】支持向量回归;参数优化;粒子群算法
1.支持向量机原理
近年来,由于以结构风险最小化为基础的支持向量机(SVM)是一种强有力的学习机器[1],可解决回归和分类问题,具有很大的灵活性。对于支持向量回归(SVR),越来越多的人开始将它作为一个有效地回归工具解决很多非线性问题。支持向量回归模型最后归结于求解一种如下的非常典型的二次规划问题:
其中,α,α是拉格朗日算子,根据KKT条件求解上述二次规划问题,仅仅部分α,α是非零的,相对应的数据点就叫做支持向量,决策函数就有如下的表述:
从(3)式可以看出,支持向量对应的数据点用来决定决策函数,因为其他数据点对应的(α-α)都等于0了。一般来讲,ε值越大,支持向量的数量就越少,结果就表现的越是稀疏。但是要注意的是,ε的增大意味着降低了训练数据的逼近精度。这样一来,ε平衡着结果的稀疏性和数据的精确度。
(2)式中的K(x,x)表示核函数,它为SVR的输入空间构建决策平面用来对于任何一个函数而言,如果满足Mercer条件[2],就可以被当作核函数。本文以最常用的高斯核函数为例,K(x,x)=exp(-(x-y)2/2σ2), σ2表示高斯核的频宽。核参数决定了高维特征空间的结构以及最后结果的复杂度,所以我们必须对它进行准确地选择。
因为SVR拥有很多吸引人的特征和良好的泛化性能,不仅在学术上,而且在工业上平台上都有成功的范例。比方说,SVR可以解决很多非线性问题;SVR的训练过程就是求解一个二次规划问题,所以结果是最优且唯一的,不可能产生局部极值;它只选取了少量的必需的数据点来解回归函数,这就导致了结果的稀疏性。
2.支持向量回归参数
尽管SVR有着它独特的优势,但是在应用中存在一个比较大的问题,那就是研究者必须自己确定不同的合适参数值来控制整个训练过程;而且要很谨慎地处理这些参数,进而才能有效地构建SVR模型来达到很好的效果。支持向量机的待定参数对其表现效果具有很大的影响力,不同的参数组合给模型带来的表现效果区别是很大的,如果参数选择的不太合理,就会导致SVR过拟合或者是拟合的不够。所以说,在SVR的训练过程中选择适当的参数就显得尤为重要,是很关键的一个步骤。
SVR的待定参数如下:
(1)惩罚因子C:在模型复杂度和训练误差起平衡调节作用。
(2)核函数的频宽σ2:表示高斯核函数的频宽。
(3)管道宽度ε:表示训练数据点的逼近精度。
3.基于粒子群算法的支持向量回归参数优化
一般参数选择最常用的比较可靠的办法是在某个确定的区间内,给适当的步长,对参数进行网格搜索根据SVR的表现效果来确定最佳的参数组[3]。这种方法通常涉及到交叉网格搜寻,所以需要大量的计算过程,就很耗时。只是这种方法应用起来比较简单,所以在计算成本比较小的时候是可行的,比方说快速或在线预测;或者是当训练数据量比较小的时候,这种方法无不是一个很好的选择。
如此看来,确定多个参数对于SVR来说是一个比较复杂的事情,它其实也相当于一个多变量的组合优化问题。因此,我们需要选择一种比较智能的办法来进行参数的全局优化。受鸟群随机寻找食物的社会行为的启发,Kennedy和Eberhar提出了粒子群算法(PSO)[4],它是一种随机全局优化方法,与其他演化算法相比,比方说遗传算法,PSO不需要诸如交叉和变异之类的操作[5]。PSO还有一个优点,就是操作起来很简单,需要调整的参数也很少。标准PSO的基本思想是通过离子速度和位置的不断迭代而达到最优值,迭代算法如下:
v(t+1)=
wv(t)+
c
r(t)(
pbest(t)-
p(t))
p(t+1)=
p(t)+
v(t+1) (4)
其中w是迭代权重,c是认知学习因子,c是社会学习因子,r(t)和r(t)是在区间[0, 1]内随机选取的,v(t)∈[-vmax,vmax],vmax是事先选取的最大速度。迭代权重w可以平衡全局和局部搜索能力,进而降低迭代次数来达到最优值。w值可以通过下式表示:
w=wmax- (5)
其中wmin表示最小的迭代权重,wmax表示最大的迭代权重,tmax表示控制整个训练过程的迭代的最大次数。
众所周知,PSO可以用来解决很多复杂的非线性问题,它同样可以用来作优化,对支持向量回归的参数进行优化,然后将优化的参数解二次规划问题,得到α,α,进而计算回归函数f(x)。利用PSO来优化
文档评论(0)