- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
机器学习的中的 Overfitting
浅谈机器学习中的Overfitting在机器学习中,常会出现这样一种的现象:一个假设在训练数据上表现很好(in-sample error 很小,即很小),但是在训练数据外的数据集上却变现很差(out-of-sample error很大,即很大),这时,我们称发生了过度拟合(overfitting)。Overfitting的原因Overfitting,字面上讲,就是“fitting the data more than is warranted.”。overfitting自然是我们不愿意看到的,那么是什么原因导致了overfitting呢?如果我们的训练数据中含有noise,那么我们在拟合时,为了追求最小 (in-sample error),一不小心,就可能用了过于复杂的模型不仅fit了data,还fit了noise,也恰恰是因为overfit了noise,造成学习出来的函数其实出现了很大的偏差,因此在新的数据上变现不好(很大)也就不足为奇了。可见,数据中含有noise是造成overfitting的一个原因。其实,造成overfitting的原因远不只是数据中noise一种,即使数据中没有noise,也有可能造成overfitting。例如,我们来看下面一个例子,目标函数是一个50阶多项式,数据如下面左图所示(这里没有任何noise),我们分别用2阶和10阶的多项式来拟合,拟合结果如下面右图所示。10阶的多项式的拟合结果竟然比2阶多项式的差,结果多少让人意外。我们想象两个人来解决同一个拟合问题,一个人比较聪明,会10阶的多项式,而令一个人只会2阶的多项式,但是,结果很奇怪,一个笨笨的人最后居然赢了,聪明人好像“聪明反被聪明误”。其实如果你知道VC theory, 就不难理解,用10阶的函数来拟合得到较差的概率要比用2阶的函数来拟合得到一个同样差的概率要大的多。如果你不知道VC theory,我们可以来看下面两个曲线,我们称之为学习曲线,表示了用2阶和10阶多项式拟合时错误率随测试数据量的大小的变化情况(左面的图是用2阶多项式的结果,右面的图是10阶多项式的结果)。我们上面的例子中,数据量不够多,这时候从曲线可以看出,10阶多项式拟合后虽然很小,但是很大。但是,我们也应该注意到,当数据足够多时(data size N足够大),用10阶函数拟合会比2阶函数好(小)。因此,我们可以得到结论,overfitting跟目标函数的复杂度有关,复杂的目标函数更容易发生overfitting,另外,overfitting还跟data size有关,当数据量较小时,我们应该选取较简单的模型来拟合,选择复杂的模型就容易产生overfitting。于是,我们得到了产生overfitting的三个最主要的原因:Data size,noise和target complexity。上面例子中,如果我们将10阶多项式的值和2阶多项式的值的差作为overfitting的一种度量,那么ovefiting与Data size,noise和target complexity的关系可以表示为如下两个图(图中由蓝色边到红色表示overfitting的概率逐渐变大):我们再次回头看刚才的例子,里面真的没有“noise”吗?如果目标函数太复杂,那么对于每一个模型来说,都没有办法来描述好目标函数,但是每一个模型的假设函数集中一定有一个对目标函数f(x)的最好的近似h*,他们之间的差异可以看做是一种noise,为了与data中的那种random noise(stochastic noise)区分,我们称这种noise为deterministic noise。右图中,蓝线表示target function,红线表示best fit to f,阴影部分就表示deterministic noise。Deterministic noise 和stochastic noise对overfitting的影响非常相似(由上面的两个图形对比可以看出)。Overfitting的对策如何尽量避免overfitting呢?方法有很多,有一些简单的技巧,比如,从简单的模型开始尝试;数据清洗等;还有非常重要的两个手段,就是regularization和validation。RegularizationRegularization是通过添加约束的方式来寻找一个简单的假设来拟合目标函数,从而避免过度拟合。以上面10阶多项式拟合的问题为例,可以表示为如下无约束的优化问题:那么利用2次多项式拟合,可以表示为一个有约束的优化问题,如下:将这个问题的约束放松一点,则有:将这个问题在进一步放松,得到如下形式:最后的式子,虽然仍然是使用10阶多项式在做拟合,但是它的约束却可以使得权重w比较小,或者说非0的w的分量的个数
您可能关注的文档
最近下载
- 2024年款 上汽通用别克 昂科威Plus 车主手册用户手册说明书.pdf VIP
- T-CAAM 002-2020实验动物常用穴位名称与定位 第2部分:大鼠.pdf
- 人教A版高中数学选择性必修第一册各章复习题(第一章空间向量与立体几何、第二章直线和圆的方程等).pdf VIP
- 2011高中统考数学试卷及答案(理科).doc VIP
- 创新创业典型案例分析 第9章 优路大件运输服务.ppt VIP
- 天文漫谈 智慧树 知到答案.docx VIP
- 学堂在线 遥测原理 期末考试答案.docx VIP
- 2025年长沙职业技术学院单招(数学)历年真题考点含答案解析.doc
- 3-SLT712-2021 河湖生态环境需水计算规范.pdf VIP
- 2025年供销社面试题库及答案.doc VIP
原创力文档


文档评论(0)