数据挖掘概念与技术 CHAPTER6-分类 Class Advanced.ppt

数据挖掘概念与技术 CHAPTER6-分类 Class Advanced.ppt

  1. 1、本文档共59页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
数据挖掘概念与技术 CHAPTER6-分类 Class Advanced

后向传播算法 多类分类 分类时设计多个类别 (i.e., 2 Classes) Method 1. One-vs.-all (OVA): 每次学习一个分类器 给定m个类, 训练m个分类其,每个类别一个 分类器 j: 把类别 j的元组定义为 positive 其他的为 negative 为分类样本 X, 所有分类器投票来集成 Method 2. All-vs.-all (AVA): 为每一对类别学习一个分类器 Given m classes, construct m(m-1)/2 binary classifiers 使用两个类别的元组训练一个分类器 为分类元组X, 每个分类器投票. X is assigned to the class with maximal vote Comparison All-vs.-all tends to be superior to one-vs.-all Problem: Binary classifier is sensitive to errors, and errors affect vote count 多类分类的Error-Correcting Codes 最初目的是在数据传输的通讯任务中通过探索数据冗余来修正误差。例: A 7-bit codeword associated with classes 1-4 半监督分类 Semi-supervised: 使用有标签和无标签数据构造分类器 Self-training: Build a classifier using the labeled data Use it to label the unlabeled data, and those with the most confident label prediction are added to the set of labeled data 重复以上过程 Adv: 容易理解; disadv: 可能增大误差 Co-training: Use two or more classifiers to teach each other 每个学习者使用元组的相互独立的特征集合来训练一个好的分类器F1 然后 f1 and f2 用来预测未知元组 X 的类别标签 Teach each other: The tuple having the most confident prediction from f1 is added to the set of labeled data for f2, vice versa Other methods, e.g., joint probability distribution of features and labels 主动学习Active Learning 获取类标签是昂贵 Active learner: query human (oracle) for labels Pool-based approach: Uses a pool of unlabeled data L: D中有标签的样本子集, U: D的一个未标记数据集 使用一个查询函数小心地从U选择1或多个元组,并咨询标签an oracle (a human annotator) The newly labeled samples are added to L, and learn a model Goal: Achieve high accuracy using as few labeled data as possible Evaluated using learning curves: Accuracy as a function of the number of instances queried (# of tuples to be queried should be small) Research issue: How to choose the data tuples to be queried? Uncertainty sampling: choose the least certain ones Reduce version space, the subset of hypotheses consistent w. the training data Reduce expected entropy over U: Find the greatest reduction in the total number of incorrect predictions 迁移学习:概念框架 Transfer learning: Extract knowledge from one

文档评论(0)

ctuorn0371 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档