《统计学》Chap15_数据挖掘.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
《统计学》Chap15_数据挖掘

神经网络注意事项 1.神经网络很难解释,目前还没有能对神经网络做出显而易见解释的方法学; 2.神经网络会学习过度; 3.训练一个神经网络可能需要相当可观的时间才能完成。 4.建立神经网络需要做的数据准备工作量很大。 说明 1.底板为全白 2. 第XX章和本章内容,严格按提供2、3页格式 3. 本章内容是一级标题(基本对应教材的节),按 一、二、…… 排列(不要标出“第一节”),并向下链接,参见提供的3页 4. 一级标题字体统一,见提供的4页中的红字,并用小鸟花边隔断,本页“说明”下面就是小鸟花边。 5. 下级的标题字体、字号不做统一规定,但相同层次的标题在一章中必须保存一致。 6. 返回符号、向前、向后符号都要求统一。 * * * 第一次迭代结果 Distance(C1-1) = 0.00 Distance(C1-2) = 3.00 Distance(C1-3) = 1.00 Distance(C1-4) ≈ 2.24 Distance(C1-5) ≈ 2.24 Distance(C1-6) ≈ 6.02 Distance(C2-1) = 1.00 Distance(C2-2) ≈ 3.16 Distance(C2-3) = 0.00 Distance(C2-4) = 2.00 Distance(C2-5) ≈ 1.41 Distance(C2-6) ≈ 5.41 C1包含实例1和2, C2包含实例3、4、5和6。 产生新的簇中心 C1簇中心 X = (1.0+1.0)/2 = 1.0 Y = (1.5+4.5)/2 = 3.0 C2簇中心 X = (2.0+2.0+3.0+5.0)/4 = 3.0 Y = (1.5+3.5+2.5+6.0)/4 = 3.375 第二次迭代结果 Distance(C1-1) = 1.50 Distance(C1-2) = 1.50 Distance(C1-3) ≈ 1.80 Distance(C1-4) ≈ 1.12 Distance(C1-5) ≈ 2.06 Distance(C1-6) = 5.00 Distance(C2-1) ≈ 2.74 Distance(C2-2) ≈ 2.29 Distance(C2-3) = 2.125 Distance(C2-4) ≈ 1.01 Distance(C2-5) = 0.875 Distance(C2-6) ≈ 3.30 C1包含实例1、2和3, C2包含实例4、5和6。 产生新的簇中心 C1簇中心 X = (1.0+1.0+2.0)/3 ≈ 1.0 Y = (1.5+4.5+1.5)/2 = 2.50 C2簇中心 X = (2.0+3.0+5.0)/3 ≈ 3.33 Y = (3.5+2.5+6.0)/3 = 4.00 K-平均值算法的局限 (1)该算法只对实数值数据有效。如果数据集里含有分类数据的属性,要么将该属性去掉,要么将该属性值转换成等价的数值数据。 (2)为了防止进行了错误的选择。在进行K平均值算法时,需要使用不同的K值进行多次运算,进而判断K值为多少时最适合。 (3)当数据中簇的大小近似相等时,K平均值算法的效果最好。 (4)无法确定哪些属性对已形成的簇是重要的。 关联规则 1.关联规则概述 2.相关术语与概念 3.关联规则的分类 4. Apriori算法 5.实例计算 6.从频繁项集产生关联规则 7.关联规则的不足 关联规则概述 关联知识是反映一个事件和其他事件之间依赖或相互关联的知识。如果两项或多项属性之间存在关联,那么其中一项的属性值就可以依据其他属性值进行预测。关联规则挖掘发现大量数据中项集之间有趣的关联或相关联系。随着大量数据不停的收集和存储,人们希望从数据中发现感兴趣的关联关系,以帮助商务决策,如分类设计、交叉购物等。 相关的术语与概念 1.项集: (1)k-项集 k-项集就是包含k项的项集。{病征=“发烧”, 病征=“咳嗽”, 病名=“上呼吸道感染”},那么{发烧,咳嗽,上呼吸道感染}就是一个大小为3的项集,即3-项集,“发烧”项是“病征”属性的一个属性值。 (2)频繁项集 频繁项集是在数据集中出现频率相当高的那些项集。频繁出现频率的阈值用支持度来定义。关联数据挖掘的任务就是高效快速的找出数据集中的频繁项集,这是衡量关联数据挖掘算法效率的标准。 相关的术语与概念 1.置信度和支持度: (1)支持度: P(A∪B),即A和B这两个项集在事务集D中同时出现的概率。 (2)置信度:

文档评论(0)

***** + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档