- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
大数据挖掘与统计机器学习;主要参考书
Hastie, Tibshirani, Friedman (2008), The Elements of Statistical Learning – Data Mining, Inference and Prediction, Second Edition, Springer
James, Witten, Hastie and Tibshirani (2013), An Introduction to Statistical Learning with Applications in R, Springer
Hastie, Tibshirani, and Wainwright (2015), Statistical Learning with Sparsity – The Lasso and Generalizations, CRC Press
;3;十个基本问题
(1)要回答的问题
(2)数据收集
(3)数据的含义
(4)相关性
(5)问题的转化
(6)可比性:数据变换
(7)可视化
(8)随机性:数据的代表性、结果的不确定性
(9)稳定性:结果的可解释性、可重复性
(10)结果验证;第2章 线性回归方法;6;7;8;9;10;2.3 Lasso模型的求解与理论性质
2.3.1 解Lasso
Lasso问题是一个凸优化问题,是一个平方损失加凸惩罚的优化问题。
单变量Lasso
目标函数:
解析解: 其中,
;12;13;14; 2.3.3 SCAD回归与Oracle性质
Fan and Li(2001)从惩罚函数的角度出发,认为一个好的惩罚函数应使得模型中的解具有以下三个理论性质:
(1)无偏性:当未知参数真值较大时,估计值应该几乎无偏。
(2)稀疏性:有某个阈值准则自动将较小的估计系数降至0,以降低模型复杂度。
(3)连续性:为避免模型在预测时的不稳定性,估计值应该是最小二乘估计值的某种连续函数。;16;17;18;2.4.2 最小一乘回归与分位回归;2.4.3 其他罚函数
Grouped Lasso
弹性网惩罚
;第3章 线性分类方法; 3.1.2 评价准则
混淆矩阵、准确率、召回率。;23;24;3.2.3 正则化的Logistic回归
变量选择
普通逐步回归
L1正规化逻辑回归模型(Lasso-LR)
;26;27; 3.3.2 二次判别函数和正则化判别函数
假设各个类别的 不相等,关于x的二次项保留在公式中。我们得到的二次判别函数(quadratic discriminant analysis,QDA)为:
Friedman(1989)提出一个将LDA和QDA结合的方法,假定将QDA不同类别不同的方差压缩到和LDA相同的方差。这和上一部分介绍的压缩方法相似。具体来讲,正则化的方差协方差矩阵有如下形式:
式中, 是LDA中假定的统一的方差; 表示一系列介于LDA和QDA之间的模型,实际应用中,使用下一部分将要介绍的交叉验证等方法估计。;29;30;31;第4章 模型评价与选择;模型复杂度与模??预测误差之间的关系:
随着模型复杂度的增加,测试误差先下降,后升高(此时模型过拟合),不论是欠拟合还是过拟合,模型推广预测的能力都差。因此存在一个中等复杂度的模型使得期望测试误差达到最小,我们的目标就是找到这个最优模型。
;34;35;36;37;38; 4.2.2 AIC准则
AIC与 近似但应用更广泛,它是基于负对数似然损失的。它的一般公式是:
与 相比,上式等号右边第一项是负对数似然损失,第二项是对模型参数个数(模型复杂度)的惩罚。
使用AIC选择模型,我们选取AIC取值最小的那个,对于非线性或者更复杂的模型,要用衡量模型复杂度的值代替p。; 4.2.3 BIC准则
BIC准则与AIC相似,都是用于最大化似然函数的拟合。BIC的一般公式为:
式中,L是似然函数; 是参数 的最大似然估计量;p是参数的个数。
BIC统计量乘以1/2也叫做施瓦兹准则。
可以看出BIC与AIC非常类似,只是把AIC中的2换成了 。当
时,BIC对复杂模型的惩罚更大,更倾向于选取简单的模型。
使用BIC选择模型,我们选取BIC取值最小的那个模型。;41;42;43;44;45;46;五、决策树与组合方法;;二分类示意;;;需要说明的一些问题
1.二叉树还是多叉树
2.自变量的进一步处理
3. 其他的决策树算法
4.决策树的一??问题;53;;; 5.2.4 讨论
Bagging算法在基预测器不稳定的情况下很有用,而当基预测器稳定时,Ba
您可能关注的文档
最近下载
- 中央空调净化系统标准规范操作规程.doc VIP
- 神志病中西医结合临床诊疗指南-精神分裂症.pdf VIP
- 混凝土重力坝施工课件.pptx VIP
- 辽宁省大连市2025届高三上学期双基测试数学试卷含答案.pdf VIP
- 2025-2026学年赣美版(2024)小学美术三年级上册《创意美术字》教学设计.docx
- 2.2 大气受热过程和大气运动(精品课件)-【居易课堂】2021-2022学年高一地理同步备课优质课件(人教2019必修第一册).pptx VIP
- 杜邦dupont芳纶凯夫拉kevlar应用领域.pdf VIP
- 细胞生物学(第五版)-第8章细胞骨架.ppt VIP
- InCAM Pro基础入门篇(中文).pdf VIP
- 2024届辽宁省大连市高三上学期期末双基测试化学试题及答案.pdf VIP
文档评论(0)