大数据十大经典算法SVM_解释.pptVIP

  • 170
  • 0
  • 约5.44千字
  • 约 29页
  • 2016-12-02 发布于湖北
  • 举报
1、监督学习、非监督学习 2、机:在机器学习领域,常把一些算法看做是一个机器,如分类机(当然,也叫做分类器) 3、通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能 获得良好统计规律的目的。 图为:线性分类的例子。用一个超平面将不同类别的数据分开。 通俗的说:找到一个最宽的直线,将类别分开,超平面为直线的中心线。 类间间隔最大 - 结构风险最小 - 泛化能力强 解释 支持向量所在平面方程 为什么为+1,-1. ai有许多为0 到这个形式以后,就可以很明显地看出来,它是一个凸优化问题,或者更具体地说,它是一个二次优化问题——目标函数是二次的,约束条件是线性的。 通过给每一个约束条件加上一个 Lagrange multiplier(拉格朗日乘值),即引入拉格朗日对偶变量α,如此我们便可以通过拉格朗日函数将约束条件融和到目标函数里去 当某个约束条件不满足时,例如?yi(wTxi+b)1,那么我们显然有?θ(w)=∞(只要令?αi=∞?即可)。而当所有约束条件都满足时,则有?θ(w)=12∥w∥2?,亦即我们最初要最小化的量。因此,在要求约束条件得到满足的情况下最小化?1/2 *∥w∥^? 实际上等价于直接最小化?θ(w)??? ? 原问题 -》 二次凸优化问题(已有很好的体系来解决此类问题) -》 对偶问题(将约束条件

文档评论(0)

1亿VIP精品文档

相关文档