- 5
- 0
- 约6.73千字
- 约 18页
- 2017-08-24 发布于广东
- 举报
拟自适应分类随机森林算法
马景义 吴喜之 谢邦昌
2011-12-13 15:00:25 来源:《数理统计与管理》(京)2010年5期第805~811页
内容提要:本文给出了集成学习模型可以收敛的集成学习算法,拟自适应分类随机森林算法。拟自适应分类随机森林算法综合了Adaboost算法和随机森林算法的优势,实验数据分析表明,训练集较大时,拟自适应随机森林算法的效果会好于随机森林算法。另外,拟自适应分类随机森林算法的收敛性确保它的推广误差可以通过训练集估计,所以,对于实际数据,拟自适应分类随机森林算法不需要把数据划分为训练集和测试集,从而,可以有效地利用数据信息。 关键词:集成学习 拟自适应 随机森林 作者简介:马景义,中央财经大学统计学院(北京100081);吴喜之,中国人民大学统计学院(北京100872);谢邦昌,中央财经大学统计学院(北京100081),台湾辅仁大学统计资讯学系(台北24205)。 0引言 通过对的训练,分类树[1]、C4.5[2]和神经网络[3]等算法都可以得到预测y的函数,或者模型;分类问题的集成学习方法(ensemble learning methods)则把多个不同个体分类模型的预测结果集合到一起,通过投票,得到一个分类更精确的预测结果。这里个体分类模型的投票模型就是集成学习模型;而个体分类模型被称作基学习模型(ba
原创力文档

文档评论(0)