《大数据十大经典算法SVM_讲解PPT.pptVIP

  • 1
  • 0
  • 约9.17千字
  • 约 33页
  • 2016-12-28 发布于北京
  • 举报
通俗的说:找到一个最宽的直线,将类别分开,超平面为直线的中心线。 类间间隔最大 - 结构风险最小 - 泛化能力强 解释 支持向量所在平面方程 为什么为+1,-1. ai有许多为0 到这个形式以后,就可以很明显地看出来,它是一个凸优化问题,或者更具体地说,它是一个二次优化问题——目标函数是二次的,约束条件是线性的。 到这个形式以后,就可以很明显地看出来,它是一个凸优化问题,或者更具体地说,它是一个二次优化问题——目标函数是二次的,约束条件是线性的。 通过给每一个约束条件加上一个 Lagrange multiplier(拉格朗日乘值),即引入拉格朗日对偶变量α,如此我们便可以通过拉格朗日函数将约束条件融和到目标函数里去 到这个形式以后,就可以很明显地看出来,它是一个凸优化问题,或者更具体地说,它是一个二次优化问题——目标函数是二次的,约束条件是线性的。 到这个形式以后,就可以很明显地看出来,它是一个凸优化问题,或者更具体地说,它是一个二次优化问题——目标函数是二次的,约束条件是线性的。 当某个约束条件不满足时,例如?yi(wTxi+b)1,那么我们显然有?θ(w)=∞(只要令?αi=∞?即可)。而当所有约束条件都满足时,则有?θ(w)=12∥w∥2?,亦即我们最初要最小化的量。因此,在要求约束条件得到满足的情况下最小化?1/2 *∥w∥^? 实际上等价于直接最小化?θ(w)??? ?

文档评论(0)

1亿VIP精品文档

相关文档