模糊数学在样本分析中应用.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模糊数学在样本分析中的应用 周诗虎 武汉职业技术学院计算机糸 430074 摘 要:本文详细介绍了模糊聚类分析在调查样本分析中的应用。并以教师教学水平与能力调查表之统计结果为例,介绍了模糊聚类分折的数学方法。它是以模糊划分为数学工具,对调查结果进行分类,并得到各类的聚类中心,最后用二次分类法,得到对应的硬划分。这样分析方法可广泛地应用到其它类似调查样本分析中。 关键词:模糊数学、模糊聚类分析、聚类中心、软划分、硬划分。 引言 教师教学水平与能力调查表之统计结果,糸来源于学生对教师表现与调查项目进行比较,以及对教师间的横向比较,经过判断而得。该判断过程属于模糊判断类型,且待处理的数据量也相当大。所以能否寻求一较为科学的处理方法,对如实反映学校师资状况影响甚大。作者认为,由于该问题的客观属性,用模糊数学的分析方法,较之用传统的数理统计方法,更接近事物的本质,可望得到较为切合实际的分析结果。 软划分(模糊划分) 设待分类的样本集合为: X={x1,x2,x3,······ ,xi······ ,xn} 每一个样本xi(i=1,2,3,······ ,n ),有S个指标。于是每个样本xi可写成行矩阵: xi=(xi1,xi2, xi3,······ ,xis) 若要将X 划分为C类,其每一类是一组X上的模糊子集。 A1={u11/x1,u12/x2,u13/x3,······ ,u1n/xn}, A2={u21/x1,u22/x2,u23/x3,······ ,u2n/xn}, ······ Ac={uc1/x1,uc2/x2,uc3/x3,······ ,ucn/xn} 其中:uij (i=1,2,·3,····· ,c , j=1,2,3,······ ,n ),表示样本xj从属于第i类的从属度。上述模糊分类可用软划分矩阵U表示。 x1 x2 x3 ······ xn 1 u11 u12 u13 ······ u1n 2 u21 u22 u23 ······ u2n U = 3 u31 u32 u33 ······ u3n ······ c uc1 uc2 uc3 ······ ucn 它是一个c*n阶软划分矩阵,且具有如下特性: 0≤uij≤1 ,(i=1,2,·3,····· ,c , j=1,2,3,······ ,n ) 这表明每一样本属于各类的从属度之和为1。 这表明每一模糊集不可能是空集。 显然,软划分矩阵有无穷多个,其全体构成软划分空间。要找到最佳分类,就是在软划分空间中找到对应的软划分矩阵。下面给出寻找与最佳分类对应的软划分矩阵,及其聚类中心的算法。 人为地先给出一个初始分划U0,它可以是硬划分也可以是软划分。 由U0和式(1—1)算出聚类中心Vi 。 其中:Vi=(vi1,vi2,vi3,··· ,vis ),i=1,2,··· ,c 。 我们称Vi为第i类的聚类中心,它是一个人为的理想样本。其指标综合地反映了该类指标的特性,因而也可以视为该类的一个模式样本。这正是软划分优于利用模糊等价关糸进行分类之所在。 xk=( xk1,xk2,··· ,xks ),k=1,2,··· ,n 。 它是第k个实际样本。 m>1 ,它是为了加强xk属于各类的从属度的对比度的一个参数。 由式(1—2)和己算出的Vi ,算出新的软分划矩阵U 。 其中: i=1,2,··· ,c ,j=1,2,··· ,n 。 检查 是否小于给定的一个很小的正数ε,若小于ε,则计算停止,所得的U与Vi即为所求最佳分划的分划矩阵和聚类中心。否则转到2,再根据已得的矩阵U算出新的聚类中心,重复做第三和第四步。 下面我们讨论一下有关上述算法的几个问题。 1.从理论上可以证明,在m>1 ,Vi≠xk的条件下,经过反复迭代的计算过程,即反修改分类和聚类中心,总可以算出近似最佳的软分划。其计算结果的精度与ε的选取有关。ε取得越小精度越高,但计算量也越大。 2.软划分需事先确定分类数,若分类数不合理,就不可能有合理的分类。因而需重新确定分类数后再计算。所以分类数需根据具体问题合理选取,并结合计算机的运行结果予以修定。 3.当得到最佳软分划

文档评论(0)

xina171127 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档