聚类分析算法解析.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
聚类分析算法解析

聚类分析算法解析data(iris) str(iris) 分类分析是无指导的分类,所以删除数据中的原分类变量。 iris$Species-NULL 2. 不相似矩阵计算 不相似矩阵计算,也就是距离矩阵计算,在R中采用dist()函数,或者cluster包中的daisy()函数。dist()函数的基本形式是 dist(x, method = euclidean, diag = FALSE, upper = FALSE, p = 2) 其中x是数据框(数据集),而方法可以指定为欧式距离euclidean, 最大距离maximum, 绝对值距离manhattan, canberra, 二进制距离非对称binary 和明氏距离minkowski。默认是计算欧式距离,所有的属性必须是相同的类型。比如都是连续类型,或者都是二值类型。 dd-dist(iris) str(dd) 距离矩阵可以使用as.matrix()函数转化了矩阵的形式,方便显示。Iris数据共150例样本间距离矩阵为150行列的方阵。下面显示了1~5号样本间的欧式距离。 dd-as.matrix(dd) 二、用hclust()进行谱系聚类法(层次聚类) 1.聚类函数 R中自带的聚类函数是hclust(),为谱系聚类法。基本的函数指令是 结果对象 - hclust(距离对象, method=方法) hclust()可以使用的类间距离计算方法包含离差法ward,最短距离法single, 最大距离法complete,平均距离法average,mcquitty,中位数法 median 和重心法centroid。下面采用平均距离法聚类。 hc - hclust(dist(iris), method=ave) 2.聚类函数的结果 聚类结果对象包含很多聚类分析的结果,可以使用数据分量的方法列出相应的计算结果。 str(hc) 下面列出了聚类结果对象hc包含的merge和height结果值的前6个。其行编号表示聚类过程的步骤,X1,X2表示在该步合并的两类,该编号为负代表原始的样本序号,编号为正代表新合成的类;变量height表示合并时两类类间距离。比如第1步,合并的是样本102和143,其样本间距离是0.0,合并后的类则使用该步的步数编号代表,即样本-102和-143合并为1类。再如第6行表示样本11和49合并,该两个样本的类间距离是0.1,合并后的类称为6类。 head (hc$merge,hc$height) 下面显示的聚类结果对象hc包含的merge和height结果值的50~55步的结果。第50步结果表明样本43与13类(即第13步的聚类合类结果)合并。所有的类编号负数j表示原数据的样本编号,正数i表示聚类过程的第i步形成的新类。再如54步,表示聚类过程第7步和第37步形成的类合并为新类,新类成为第54类,其类间距离是0.2641715。 data.frame(hc$merge,hc$height)[50:55] 3.绘制聚类图 聚类完成后可以使用plot()绘制出聚类的树图。 plot(hc, hang = -1, labels=iris$Species) 4.指定分类和类中心聚类 通过观察树形图,可见由于数据例很多,使图形很乱,不容易确定合理的分类,为简化图形,使用cutree()来确定最初的分类结果,先初步确定各个样本的最初分类的类数后,然后用hclust()再次聚类,重新聚类后,得出最后的分类结果。 memb - cutree(hc, k = 10) #确定10个分类 table(memb) #各类中的样本数 为了进行重新聚类,需要计算各类的类中心的类中心,这里用各类的均向量来代表各类的类中心,计算程序如下。 cent - NULL for(k in 1:10){ cent - rbind(cent, colMeans(irisSample[memb == k, , drop = FALSE])) } 有了各类的类中心后,再次使用hclust()函数,从10类起重新开始聚类。hclust()函数这时需要指定各类的类中心,并采用中心法来聚类。 hc1 - hclust(dist(cent), method = centroid, members = table(memb)) plot(hc1) hc1 再次聚类的树形图就很精简了。从树形图上看,确定为三类是比较合适的。 4.输出最终分类结果 使用cutree()来确定输出各个样本的最后分类。 memb - cutree(hc, k =3 #确定3个分类 table(memb) #各类中的样本数 下面将聚类结果和原始的分类比较可见聚类结果是不错的。错误率约为14/150=9.33%。 5.直接

文档评论(0)

ctuorn0371 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档