线性回归中的模型选择教学讲义.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
例:前列腺癌 ——岭回归 例:前列腺癌 ——岭回归 最佳测试误差 最佳模型 最佳测试误差+1倍方差 Lasso 类似岭回归,最小化 等价于 将岭回归中的惩罚项 用 代替 使得解为y的非线性组合,计算时用二次规划算法 如果t选择为足够小,会使得一些系数等于0。 选择最小期望测试误差的t 例:前列腺癌 ——Lasso 最佳测试误差 最佳模型 最佳测试误差+1倍方差 例:前列腺癌 ——Lasso Lasso会使某些系数=0 而岭回归不会 例:前列腺癌 ——不同正则化方法 收缩估计族 考虑标准 不同q对应的 的轮廓线为 在贝叶斯框架下, 可视为 的负的log先验 收缩估计族 在贝叶斯框架下,Lasso、岭回归和最佳子集选择表现为选择的先验分布不同 估计的结果都为贝叶斯估计:众数(最大后验) 岭回归同时也是后验均值(高斯分布的众数也是均值) 下节课内容 概率密度估计 [Wasserman] Chp19 Regularization Regularization: add model complexity penalty to training error. for some constant C Now Regularization forces weights to be small, but does it force weights to be exactly zero? is equivalent to removing feature f from the model L1 vs L2 regularization L1 vs L2 regularization To minimize , we can solve by (e.g.) gradient descent. Minimization is a tug-of-war between the two terms L1 vs L2 regularization To minimize , we can solve by (e.g.) gradient descent. Minimization is a tug-of-war between the two terms * * 线性回归中的模型选择 多元回归分析中,输入特征可能有许多,这些特征对模型都是必须的? 否 因为: 预测准确性:当回归模型中变量增多时,预测的偏差的低但方差高(过拟合) 可解释性:当回归模型中的预测子数目很多时,模型很难解释 希望找到效果更明显的少数预测子 模型选择 模型选择 模型评估:用一些指标来衡量每个模型 解析计算:AIC/BIC/MDL 模拟计算:交叉验证/bootstap 模型搜索:在模型空间中搜索,找到在某个衡量指标下最优的模型 模型空间不大:穷举搜索 否则:贪心搜索 前向/后向/双向逐步 上述模型选择是离散的,亦称子集选择。另一类方法为连续的收缩方法 岭回归 Lasso 回顾:线性回归模型 假定 不依赖于x: 其中 模型类型:参数模型 损失:平方误差损失 参数选择:训练数据上的最小平方误差(最小二乘,在高斯噪声假设下,= 极大似然 ) 计算:矩阵求逆/QR分解 模型选择:AIC/BIC 回顾:线性回归模型 最小二乘参数估计的结果: 点估计: 偏差: 方差: 的无偏估计为: 子集选择 只保留变量的一个子集,将其余变量从模型中删除(将其系数置为0) 当p较小时,可穷尽搜索最佳子集 对每个 ,其中p为变量的总数目,找出容量为k的子集,计算每个模型的得分(AIC/BIC) 具体算法参考 FurnivalWilson 1974 容量较大的最佳子集不必包含容量较小的最佳子集 AIC:Akaike Information Criterion AIC为模型M测试误差的一个估计: 其中 为在模型M对应的训练集数据的对数似然函数,p为模型M中特征的数目 我们选择测试误差 最小的模型,等价于选择下述表达式最大的模型 Akaike, Hirotugu (December 1974). A new look at

文档评论(0)

186****7785 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档