支持向量机算法的详细推导.pptVIP

  1. 1、本文档共44页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
8.3 支持向量机的学习算法 在能够选择变换φ (取决于设计者在这方面的知识)的情况下,用支持向量机进行求解的学习算法如下: (1)通过非线性变换φ将输入向量映射到高维特征空间; (2)在约束条件 下求解使目标函数 最大化的αop。 (3)计算最优权值 (4)对于待分类模式X,计算分类判别函数 根据f(x)为1或一1,决定X的类别归属。 若能选择一个内积核函数K(XP, X) ,可避免进行变换,此时用支持向量机进行求解的学习算法如下: (1)准备一组训练样本{(X1,d1),(X2,d2),…,(Xp,dp),…(XP,dP)} (2)在约束条件 下求解使目标函数 最大化 的αop。 ,其中 K(XP, Xj) ,p,j=1,2,…,P可以看作是P×P对称矩阵K的第pj项元素; (3)计算最优权值 Y为隐层输出向量; (4)对于待分类模式X,计算分类判别函数 根据f(x)为1或-l,决定X的类别归属。 上面讨论的支持向量机只能解决二分类问题,目前没有一个统一的方法将其推广到多分类的情况。 支持向量机被用于径向基函数网络和多层感知器的设计中。 在径向基函数类型的支持向量机中,径向基函数的数量和它们的中心分别由支持向量数和支持向量的值决定,而传统RBF网络则依赖于经验知识。 在单隐层感知器类型的支持向量机中,隐节点的个数和它们的权值向量分别由支持向量的个数和支持向量的值决定。 与RBF和多层感知器相比,SVM的算法(1)不依赖于设计者的经验知识;(2)能求全局最优值;(3)有良好的泛化能力而不会出现过学习。SVM算法复杂导致训练速度较慢,其中的主要原因是在算法寻优过程中涉及大量矩阵运算。目前提出的一些改进训练算法是基于循环迭代的思想,3类改进算法。 (1)Vapnik等提出的块算法 (2)Qsuna等提出的分解算法 (3)Platt的SMO算法(应用最广!) 8.4 支持向量机设计应用实例 8.4.1 XOR问题 用SVM处理XOR问题。4个输入样本和期望输出如图8.3(a)所示。 方法一:选择映射函数Φ(x)将输入样本映射到高维的空间,使其在该空间是线性可分的。如Φ(x)= 可将二维训练样本映射到一个六维特征空间。这个六 x1 x2 d -1 -1 -1 -1 1 1 1 -1 1 1 1 -1 维空间在平面上的投影如图8.3(b)所示。可以看出分离边缘为ρ= ,通过支持向量的超平面在正负两侧平行于最优超平面,其方程为 ,对应于原始空间的双曲线x1x2=±1。 寻求使: 最大化的Lagrange系数,约束条件为 从该问题的对称性,可取 求导并令导数为零,得到下列联立方程组 解得Lagrange系数的最优值为αop=1/8,p=1,2,3,4,可见4个样本都是支持向量,Q(α)的最优值为1/4。根据式(8.39)可写出 在六维特征空间中找到的最优超平面为 图8.3中将最优超平面x1x2=0投影到二维空间后成为与 轴平行的直线。 方法二:选择核函数为 将x=(x1,x2)T和XP=(x1p,x2p)’代入上式,核函数可应用不同次数的单项式表示 将各输入样本代入上式,可计算出4×4对称K矩阵中各元素的值为 代入式(8.41,目标函数),接下来的计算过程及得到的Lagrange系数的最优值为与方法一相同。 由于4个样本都是支持向量,隐层为4个节点,各隐节点输出为yj=K(X,Xj),j=1,2,3,4。代入式(8.42) 根据式(8.35),最优超平面为 该方法使用内积核函数在4为空间建立最优超平面,无需用显式的形式考虑特征空间自身。 手写体阿拉伯数字的识别 人工神经网络及应用 主讲 何东健 第八章 支持向量机 BP网络及RBF网络解决了模式分类与非线性映射问题。Vapnik提出的支持向世机(Support Vector Machine,SVM),同样可以解决模式分类与非线性映射问题。 从线性可分模式分类角度看,SVM的主要思想是:建立一个最优决策超平面,使得该平面两侧距平面最近的两类样本之间的距离最大化,从而对分类问题提供良好的泛化能力。根据cover定理:将复杂的模式分类问题非线性地投射到高维特征空间可能是线性可分的,因此只要特征空间的维数足够高,则原始模式空间能变换为一个新的高维特征空间,使得在特征空间中模式以较高的概率为线性可分的。此时,应用支持向量机算法在特征空间建立分类超平面,即可

文档评论(0)

Epiphany + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档