svm原理及应用举例.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
SVM原理及应用举例 陈朝虹 硕(1)班 201220109072 SVM例子 % 四个样本[-2,2],[2,-2],[-2,-2],[2,2],前两个属第一类,后两个属第二类 % 构造输入 data=[1 1 -1 -1; -2 2 -2 2; 2 -2 -2 2]; % quadprog求解二次优化问题 H=zeros(4,4); tag=data(1,:); for i=1:4 for j=1:4 k=(1+data(2:end,i)*data(2:end,j))^2; % 多项式kernal %k=exp(-norm(data(2:end,i)-data(2:end,j))^2/2); % 径向基RBF kernal H(i,j)=tag(i)*tag(j)*k; end end C = 1; %每个权重设置最大的允许值 f = -1*ones(4,1); %二次规划中的f A = []; b = []; Aeq = tag; beq = 0; lb = zeros(4,1); %lb和ub表示sum (alpha*yi)=0 ub = C*ones(4,1); a0 = zeros(4,1); %所有权重的初值 %以下使用二次规划算法调用quadprog [a,fval,eXitflag,output,lambda] = %quadprog(H,f,A,b,Aeq,beq,lb,ub,a0,options) %求解min1/2xT*H*x+fT*x 由此我们把对偶问题加上一个负号 原来求最大变成求最小值 options = optimset; % Options是用来控制算法的选项参数的向量 options.LargeScale = off; options.Display = off; [a,fval,eXitflag,output,lambda]=quadprog(H,f,A,b,Aeq,beq,lb,ub,a0,options); % 求解b b=zeros(1,4); for i=1:4 for j=1:4 k=(1+data(2:end,i)*data(2:end,j))^2; % 多项式kerna %k=exp(-norm(data(2:end,j)-data(2:end,i))^2/2); % 径向基RBF kerna b(i)=b(i)+a(i)*tag(i)*k; end end b=mean(b); % 输出分类结果 result=zeros(1,4); for i=1:4 for j=1:4 k=(1+data(2:end,i)*data(2:end,j))^2; % 多项式kerna %k=exp(-norm(data(2:end,j)-data(2:end,i))^2/2); % 径向基RBF kerna result(i)=result(i)+a(i)*tag(i)*k+b; end end 程序运行结果 采用多项式核: 系数为a= 0.0078 0.0078 0.0078 0.0078 分类结果: result = 1.0312 1.0312 -1.0313 -1.0313 采用径向基RBF 核: 系数为a = 1.0000 1.0000 1.0000 1.0000 分类结果: result = 1.0007 1.0007 -1.0007 -1.0007 SVM理论基础 如上图所示,有一堆训练数据的正负样本,标记为: 假设有一个超平面H: 可以把这些样本正确无误地分割开来,同时存在两个平行于 H的超平面 H1和 H2: 使离H最近的正负样本刚好分别落在H1和H2上,这样的样本就是支持向量。那么其他所 有的训练样本都

文档评论(0)

187****9211 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档