线性多分类问题算法实现.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模式识别 题 目 作业三一一线性多分类问 题的算法实现 院 系 专业班级 学生姓名 学 号 二O—八年三月 一、 问题重述 分别使用以下四种方法对样本进行训练和测试。 方法: 基于类均值的最小距离法; 近邻法; 基于两类判决的l-r策略的固定增量算法; 基于两类判决的1-1策略的固定增量算法。 样本: 三类九个训练样本 第一类:(75, 145) (80, 150) (85, 155) 第二类:(55, 105) (60, 100) (65, 95) 第三类:(110, 100) (100, 100) (110, 80) 三个测试样本 第一个:(60, 140) 第二个:(80, 125) 第三个:(90, 110) 算法流程 1、基于类均值的最小距离法 基于类均值的最小距离法思想是首先计算每类训练样本的均值点,再分别计算每个均值点到测试 样木的距离,测试样木归属于距其最近的均值点所在的数据类型。 算法流程如下: 图1基于类均值的最小距离法流程图 核心程序如下: %训练样木 FirstTrain=[75, 145;80, 150;85, 155]; SecondTrain=[55, 105;60, 100;65, 95]; ThirdTrain=[110,100;100, 100;110, 80]; %求均值 Mean二[mean (FirstTrain);mean(SecondTrain);mean(Th i rdTra i n)]; %测试样本 Study=[80,125]; %判别结果 StudyType二zeros (size (Study, 1)); %基于类均值的最小距离法 for i=l:size(Study, 1) [n,m]=min(pdist2(Study(i, :), Mean)); StudyTypc(i)二 End figure scatter(FirstTrain(:,1),FirstTrain(2), ,b); text (Mean(l, 1), Mean(l, 2),第一类,Color,,‘ k); hold on; seatter(SecondTrain(:, 1), SecondTrain(:,2),o,b); text (Mean (2, 1), Mean (2, 2),‘ 第二类,‘ Color,‘ k); scatter (ThirdTrain(:, 1), ThirdTrain(:, 2), d, b); text (Mean (3, 1), Mean (3, 2),第三类,Color,,‘ k); for i=l:size(Study, 1) if StudyType(i)二二1 text(Study(i, 1)+1, Study(i, 2),‘ 第一类,‘ Color, r); el seif StudyType (i)==2 text (Study (i, 1) +1, Study (i, 2),第二类’,Color,,‘ r); clseif StudyType(i)==3 text (Study (i, 1) +1, Study (i, 2),第三类,Color,,‘ r); end scatter (Study (i, 1), Study (i, 2), g); for j=l:size (Mean, 1) if j==StudyTypc(i) plot ([Study (i, 1), Mean (j, 1) ], [Study (i, 2), Mean(j⑵]Color,‘ m); else plot ([Study (i, l),Mean(j, 1)], [Study (i, 2), Mean (j, 2)], ; end end end titleC最小距离法分类结果) xlabel ( xl); ylabel ( x2) 2、近邻法 近邻法的思想是首先计算每个训练样本到测试样本的距离,测试样本归属于距其最近的训练样本 点所在的数据类型。 算法流程如下: 图2近邻法流程图 核心算法: %训练样木 FirstTrain=[75, 145;80, 150;85, 155]; SecondTrain=[55, 105;60, 100;65, 95]; ThirdTrain=[110,100;100, 100;110, 80]; %测试样本 Study二[60,140;80, 125;90, 110]; %判别结果 StudyType=zeros (size (Study, 1)); First二sizc(FirstTrain, 1); Second=First+size (SecondTrain,1); Th i rd=Second+s i ze (Th i rdT

文档评论(0)

ggkkppp + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档