数据挖掘算法.doc

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
数据挖掘算法要点

ID3 首先,统计历史数据中label的概率分布,据此计算信息熵; 然后,需要确定树的根节点,对每个属性,需要计算当该属性取值为feature(i)时的label的概率分布,据此计算feature=feature(i)时的信息熵,然后乘以这些取值的概率,得到该属性的信息熵的期望,将该信息熵与上一步的信息熵做差得到信息增益。取信息增益最大的属性作为根节点; 然后根据根节点的属性进行分支,对每个分支确定下一节点属性,方法与上面一样,只是这里的历史数据只选择根节点分支属性条件下的数据。以此类推。 当系统的信息熵降为0时就没必要再往下构造决策树了,此时节点已经是纯的了,说白了就是label是确定的了,概率为1。最坏的情况是决策树的高度等于属性的个数。 C4.5 信息增益率: CART 不纯度: 尝试根据样本的每一个属性及可能的属性值,对样本的进行二元划分,假设分类后A分为B和C,其中B占A中样本的比例为p,C为q(显然p+q=1)。则杂质改变量:Gini(A) -p*Gini(B)-q*Gini(C),每次划分该值应为非负,只有这样划分才有意义,对每个属性值尝试划分的目的就是找到杂质该变量最大的一个划分,该属性值划分子树即为最优分支。 SVM 最小化结构风险 SVM善于处理高维数据,因为SVM分类器很简洁,用到的样本信息很少,不会给存储和计算带来大麻烦。 4.1 线性分类器 定义一个样本点到一个超平面的间隔: Xi是样本点,g(x)=wx+b是超平面,yi是类别号,则间隔恒大于0,为|wxi+b|即|g(xi)| 把w和b进行归一化,则几何间隔可写作: 最大化几何间隔和最小化||w||是一回事,我们通常固定间隔(如1)来寻求最大几何间隔,也就是最小化||w||,等价于最小化1/2||w||2。 上面固定间隔为1,是把所有样本点中最近的两个点间隔固定为1,所以所有样本点间隔应满足约束: 即 所以分类问题最终转变为带不等式约束的最小值问题: w是由样本确定的,因此w可以写作: 则原来的g(x)可写作: 把非向量拿出: 最后变换得到: 4.2 线性不可分情况 核函数,把低维线性不可分的输入转换为高维求内积的形式,所以把内积替换为核函数进行求解即可。首选径向基核函数。 4.3 松弛变量和惩罚因子 解决某些噪声点、离群点影响分类问题,加入松弛变量: 优化问题变为: 其中C是惩罚因子 EM(最大期望算法) 在概率模型中寻找参数最大似然估计或者最大后验估计,其中概率模型依赖于无法观测的隐藏变量。(聚类) 推导过程有点复杂,涉及jensen不等式和最大似然估计,概率推导繁琐。 PageRank算法(网页重要性) B(i)表示所有链接i的网页,R(j)表示网页j的PageRank,N(j)表示网页j链接的网页个数,C是权重。 若是有一些网页是封闭的,则会发生无限迭加的过程,可以通过加入逃脱因子E(i)解决: 由于孤立网页的存在,增加阻尼系数q(一般为0.85)修正公式: 使用幂法选取Rank初始值,其实无论怎么选择初始值最终结果都会收敛,只是选择合适的初始值会使算法效率更高,具体推导转换为矩阵操作,这里省略。 HITS(链接分析) Hub页面(枢纽页面)和Authority页面(权威页面)是HITS算法最基本的两个定义。 权威页面是在某个主题具有高质量的页面,Hub页面则包含一些权威页面的链接且是高质量的。 算法基本思想: 7.1 首先是通过用户查询生成根集合: 7.2 HITS算法对base集合进行扩充: base集合是与根集合相关的所有集合,包括根集合指向的和指向根集合的。 HITS算法伪代码如下: 1 G:= set of pages 2 for each page p in G do 3 p.auth = 1 //p.auth is the authority score of the page p 4 p.hub = 1 //p.hub is the hub score of the page p 5 function HubsAndAuthorities(G) 6 for step from 1 to k do // run the algorithm for k steps 7 norm = 0 8 for each page p in G do // update all authority values first 9 p.auth = 0 10 for each page q in p.incomingNeighbors do //p.incomingNeighbors is the set of pages that link to p 11 p.auth += q.hub 12 norm += square(p.auth) /

您可能关注的文档

文档评论(0)

dajuhyy + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档