周志华版《机器学习》第五章 知识点笔记.pdfVIP

周志华版《机器学习》第五章 知识点笔记.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

周志华版《机器学习》第五章知识点笔记

核心主题:决策树(DecisionTree)

——一种可解释性强、适用于分类与回归任务的树形结构模型,核心是“分而治之”,通过递

归划分特征空间生成决策规则。

5.1决策树的基本概念与结构

5.1.1定义与核心思想

决策树是一种树形预测模型,以样本特征为内部节点判断条件,以类别回归值为叶节“”“/”

点输出结果,通过递归划分训练数据,使每个子数据集尽可能“纯”(同类样本占比高)。

核心思想:将高维特征空间按特征取值逐步拆分,形成与类别回归值对应的低维子空间,最/

终每个子空间对应一个明确的预测结果。

5.1.2树形结构组成

节点类型功能描述

Root

根节点()包含全部训练样本,是决

策树的起点,需选择第一

个划分特征

Internal“”

内部节点()对应特征判断条件(如

“色泽青绿?”“含糖率

0.5?”),将父节点样本

划分为子节点

叶节点(Leaf)无子节点,输出预测结果

(分类任务为类别,回归

任务为连续值)

Branch

分支()连接父节点与子节点,对

应特征的某一取值(如

“色泽青绿分支、色泽”“

乌黑”分支)

5.1.3决策树学习的目标

从训练数据中归纳出可读性强的决策规则,同时最小化泛化误差——既要保证训练数据的划

分精度,又要避免过拟合(如树过深导致对噪声敏感)。

5.2决策树的构建三步骤

决策树学习的核心流程:特征选择→决策树生成→剪枝,三者环环相扣,共同决定模型性

能。

5.2.1第一步:特征选择(关键——选“最能区分样本”的特征)

特征选择的本质是衡量“特征对样本纯度的提升能力”,纯度越高(同类样本占比越高),划分

效果越好。常用纯度度量指标有三种,对应不同的决策树算法:

()信息熵与信息增益(算法核心指标)

1ID3

•信息熵(Entropy):衡量样本集合的“不确定性”,熵越大,不确定性越高(纯度越

低)。

对样本集D(含k类样本,第k类样本数为|C_k|,总样本数|D|),信息熵定义为:

H(D)-\sum_{k1}^{K}\frac{|C_k|}{|D|}\log_2\frac{|C_k|}{|D|}

特殊情况:若所有样本属于同一类(纯集合),H(D)0;若两类样本各占50%,H(D)1(不

确定性最大)。

•ConditionalEntropyAD

条件熵():已知特征的取值后,样本集的不确定性(纯

度)。

AV\{a_1,a_2,...,a_V\}AVD_1,D_2,...,D_V

特征有个取值,按划分后得到个子集,条件熵

为:

H(D|A)\sum_{v1}^{V}\frac{|D_v|}{|D|}H(D_v)

•InformationGainA

信息增益():特征划分后,信息熵的减少量(即纯度提升量),增

益越大,特征区分能力越强。

定义为:

g(D,A)H(D)-H(D|A)

•ID3算法特征选择逻辑:对所有候选特征,计算其信息增益,选择增益最大的特征作为当

前节点的划分特

文档评论(0)

几多 + 关注
实名认证
文档贡献者

问君能有几多愁。

1亿VIP精品文档

相关文档