2025年机器学习集成学习(XGBoost)应用试卷及答案.docxVIP

  • 2
  • 0
  • 约7.11千字
  • 约 10页
  • 2026-03-13 发布于天津
  • 举报

2025年机器学习集成学习(XGBoost)应用试卷及答案.docx

2025年机器学习集成学习(XGBoost)应用试卷及答案

考试时间:______分钟总分:______分姓名:______

选择题(每题2分,共20分)

1.下列关于Boosting方法的描述,正确的是()。

A.Boosting通过并行训练多个基学习器,减少方差

B.Boosting的核心思想是“串式训练,后续模型关注前序模型的错误样本”

C.AdaBoost对异常值鲁棒,而XGBoost对异常值敏感

D.Bagging与Boosting的主要区别在于基学习器是否依赖训练数据分布

2.在XGBoost中,参数`subsample`和`colsample_bytree`的作用分别是()。

A.控制叶子节点最小样本数、控制分裂节点所需的最小损失增益

B.对样本进行随机采样(行采样)、对特征进行随机采样(列采样)

C.设置学习率、设置树的最大深度

D.控制L1正则化系数、控制L2正则化系数

3.XGBoost的目标函数设计优于GBDT的主要原因是()。

A.仅使用一阶导数优化损失函数

B.引入二阶导数(Hessian)进行更精确的拟合

C.不包含正则化项

D.仅支持精确算法计算分裂点

4.参数`min_child_weight`在XGBoost中的作用是()。

A.控制学习率

B.设置叶子节点最小样本权重和

C.控制分裂节点所需的最小损失增益

D.控制树的最大深度

5.下列关于XGBoost缺失值处理的描述,正确的是()。

A.必须预先用均值或中位数填充缺失值

B.在节点分裂时,自动将缺失值分配到增益较大的子树

C.缺失值会被忽略,不参与训练过程

D.只能处理数值型特征的缺失值

6.XGBoost中,参数`alpha`和`lambda`分别控制()。

A.L1正则化系数、L2正则化系数

B.学习率、树的最大深度

C.行采样比例、列采样比例

D.叶子节点最小样本数、分裂增益阈值

7.下列关于XGBoost与随机森林的对比,错误的是()。

A.XGBoost是Boosting方法,随机森林是Bagging方法

B.XGBoost支持自定义损失函数,随机森林通常使用基尼系数或信息熵

C.XGBoost的训练速度一定比随机森林快

D.随机森林对异常值更鲁棒,XGBoost对异常值敏感

8.在XGBoost中,参数`eta`(学习率)的作用是()。

A.控制树的最大深度

B.调整每棵树对最终结果的贡献权重

C.设置叶子节点最小样本数

D.控制正则化强度

9.下列关于XGBoost近似算法的描述,正确的是()。

A.近似算法通过枚举所有可能的分裂点提高精度

B.近似算法按分位数候选分裂点,提升训练速度

C.近似算法仅适用于分类问题

D.近似算法无法处理缺失值

10.XGBoost中,参数`max_depth`的主要作用是()。

A.控制学习率

B.限制树的最大深度,防止过拟合

C.设置叶子节点最小样本数

D.控制正则化强度

填空题(每题2分,共20分)

1.XGBoost的目标函数由______和______两部分组成,其数学表达式为:Obj=∑L(yi,?i)+Ω(fk)。

2.XGBoost处理缺失值的机制是:在节点分裂时,将缺失值样本自动分配到______。

3.参数`gamma`在XGBoost中的作用是控制分裂节点所需的______。

4.XGBoost与GBDT的核心区别之一是:XGBoost使用______展开来近似损失函数,而GBDT仅使用______导数。

5.参数`colsample_bytree`用于控制每棵树训练时随机采样的______比例。

6.在XGBoost中,参数`n_estimators`表示______的数量。

7.XGBoost的过拟合可以通过增加______正则化系数或减小______来缓解。

8.参数`objective`用于指定XGBoost的______任务,如回归、分类或排序。

9.XGBoost中,参数`random_state`的作用是______。

10.在XGBoost中,参数`early_stopping_rounds`用于在验证集性能______时提前停止训练。

简答题(共30分)

1.请从目标函数、分裂算法、正则化、缺失值处理四个方面,对比XGBoost与GBDT的核心区

文档评论(0)

1亿VIP精品文档

相关文档