支持向量回归机.docVIP

  • 14
  • 0
  • 约 10页
  • 2017-02-08 发布于重庆
  • 举报
支持向量回归机

3.3 支持向量回归机 SVM本身是针对经典的二分类问题提出的,支持向量回归机(Support Vector Regression,SVR)是支持向量在函数回归领域的应用。SVR与SVM分类有以下不同:SVM回归的样本点只有一类,所寻求的最优超平面不是使两类样本点分得“最开”,而是使所有样本点离超平面的“总偏差”最小。这时样本点都在两条边界线之间,求最优回归超平面同样等价于求最大间隔。 3.3.1 SVR基本模型 对于线性情况,支持向量机函数拟合首先考虑用线性回归函数拟合,为输入量,为输出量,即需要确定和。 图3-3a SVR结构图 图3-3b不灵敏度函数 惩罚函数是学习模型在学习过程中对误差的一种度量,一般在模型学习前己经选定,不同的学习问题对应的损失函数一般也不同,同一学习问题选取不同的损失函数得到的模型也不一样。常用的惩罚函数形式及密度函数如表3-1。 表3-1 常用的损失函数和相应的密度函数 损失函数名称 损失函数表达式 噪声密度 -不敏感 拉普拉斯 高斯 鲁棒损失 多项式 分段多项式 标准支持向量机采用-不灵敏度函数,即假设所有训练数据在精度下用线性函数拟合如图(3-3a)所示, (3.11) 式中,是松弛因子,当划分有误差时,,都大于0,误差不存在取0。这时,该

文档评论(0)

1亿VIP精品文档

相关文档