最新The Elements of Statistical Learning.pptVIP

  1. 1、本文档共37页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
最新The Elements of Statistical Learning.ppt

ijfhf vvvvt ijfhf vvvvt ijfhf vvvvt ijfhf vvvvt ijfhf vvvvt ijfhf vvvvt The Elements of Statistical Learning Chapter 2: Overview of Supervised Learning 季张龙 * hhjkl Contents 基本术语(2) 两种基本算法:Linear Model和Nearest Neighbor Methods(3) Loss Function和Optimal Prediction(4) Curse of Dimensionality(5) Additive Model(6) Model Selection(6,7,8,9) * hhjkl 基本术语 Machine Learning: 根据给定的算法从已知的数据中习得一定的规则,这些规则可以依据类似的输入决定输出 Supervised Learning(有监督学习): In supervised learning, the goal is to predict the value of an outcome measure based on a number of input measures * hhjkl 基本术语 Training Set(训练集): The outcome and feature measurements we have observed Prediction Model, or Learner: predict the outcome for new unseen objects (based on our algorithm and training set) Predictor或feature: 标记为 ,自变量 Response:变量 * hhjkl 基本术语 变量主要有两种,连续的称为quantitative,标记为 ,不连续的称为qualitative/ categorical,标记为 ,一般情况下各个种类没有顺序关系。 输出连续性response的叫做Regression(回归),不连续的叫做Classification(分类) * hhjkl 基本术语 Dummy Variable:K-level qualitative variable is represented by a vector of K binary variables or bits, only one of which is “on at a time * hhjkl Contents 基本术语(2) 两种基本算法:Linear Model和Nearest Neighbor Methods(3) Loss Function和Optimal Prediction(4) Curse of Dimensionality(5) Additive Model(6) Model Selection(6,7,8,9) * hhjkl 两种基本算法 Linear Model(线性模型,内容略) 同时是最小二乘估计,最小化 是数量值时容易处理,这就是一种回归 如果 是dummy variables,则以上方法可以作为分类, * hhjkl 两种基本算法 Nearest Neighbor Methods(最近邻方法):任给 ,假设训练集中最靠近 的 个点的下标组成的集合为 ,则 对于分类问题,同样转化成dummy variables来解决 这依赖于 连续的假设 * hhjkl Contents 基本术语(2) 两种简单的算法:Linear Model和Nearest Neighbor Methods(3) Loss Function和Optimal Prediction(4) Curse of Dimensionality(5) Additive Model(6) Model Selection(6,7,8,9) * hhjkl Loss Function和Optimal Prediction 选择最优模型的时候,需要有一个衡量模型优劣的泛函。被选择的模型应最小化此泛函。 如果假设 来自分布 ,并且规定了Loss Function(损失函数) ,则可以计算Expected Prediction Error(预测误差期望) 最小化EPE能得到合适的模型 * hhjkl Loss Function和Optimal Prediction 常用的损失函数有两种: 回归中的平方损失函数 分类中的0-1损失函数 Optimal Pr

您可能关注的文档

文档评论(0)

liuxiaoyu92 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档