支持向量机matlab实例及理论_2013120慧知文库.DOCVIP

支持向量机matlab实例及理论_2013120慧知文库.DOC

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
支持向量机matlab实例及理论_2013120慧知文库

 HYPERLINK  支持向量机matlab实例及理论原文地址:/view/c93713c35b52c6a3a403b413718fddde.html 支持向量机 matlab 分类实例及理论 线性支持向量机可对线性可分的样本群进行分类,此时不需要借助于核函数就可较为理想地解 决问题。非线性支持向量机将低维的非线性分类问题转化为高维的线性分类问题,然后采用线性支持 向量机的求解方法求解。此时需要借助于核函数,避免线性分类问题转化为非线性分类问题时出现的 维数爆炸难题,从而避免由于维数太多而无法进行求解。 第 O 层:Matlab 的 SVM 函数求解分类问题实例 0.1Linear classification(线性分类) %Two Dimension Linear-SVM Problem, Two Class and Separable Situation %Method from Christopher J. C. Burges: %A Tutorial on Support Vector Machines for Pattern Recognition, page 9 %Optimizing ||W|| directly: % % Objective: Subject to: min f(A)=||W|| , yi*(xi*W+b)-1=0, p8/line26 function (12); clear all; close all clc; sp=[3,7; 6,6; 4,6;5,6.5] nsp=size(sp); sn=[1,2; 3,5;7,3;3,4;6,2.7] nsn=size(sn) sd=[sp;sn] lsd=[true true true true false false false false false] Y = nominal(lsd) figure(1); subplot(1,2,1) plot(sp(1:nsp,1),sp(1:nsp,2),m+); hold on plot(sn(1:nsn,1),sn(1:nsn,2),c*); subplot(1,2,2) svmStruct = svmtrain(sd,Y,showplot,true); % negative sample points % positive sample points 0.2 NonLinear classification(非线性分类)(平方核 函数) clear all; close all clc; sp=[3,7; 6,6; 4,6; 5,6.5] nsp=size(sp); sn=[1,2; 3,5; 7,3; 3,4; 6,2.7; 4,3;2,7] nsn=size(sn) sd=[sp;sn] lsd=[true true true true false false false false false false false] Y = nominal(lsd) figure(1); subplot(1,2,1) plot(sp(1:nsp,1),sp(1:nsp,2),m+); hold on plot(sn(1:nsn,1),sn(1:nsn,2),c*); subplot(1,2,2) % svmStruct = svmtrain(sd,Y,Kernel_Function,linear, showplot,true); svmStruct = svmtrain(sd,Y,Kernel_Function,quadratic, showplot,true); % use the trained svm (svmStruct) to classify the data % negative sample points % positive sample points RD=svmclassify(svmStruct,sd,showplot,true) % RD is the classification result vector 0.3 Gaussian Kernal Classification(高斯核函数分 类) clear all; close all clc; sp=[5,4.5;3,7; 6,6; 4,6; 5,6.5] nsp=size(sp); sn=[1,2; 3,5; 7,3; 3,4; 6,2.7; 4,3;2,7] nsn=size(sn) sd=[sp;sn] lsd=[true true true true true false false false false false false false] Y = nominal(lsd) fig

文档评论(0)

zhuwo + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档