2025年监督学基础试题及答案.docxVIP

  • 0
  • 0
  • 约1.12万字
  • 约 27页
  • 2026-02-28 发布于四川
  • 举报

2025年监督学基础试题及答案

一、单项选择题(每题2分,共30分)

1.监督学中“监督信号”的核心特征是

A.由环境随机生成

B.由人类专家标注

C.由算法自我推断

D.由损失函数反向传播

答案:B

解析:监督信号即标签,必须依赖外部知识源,通常由人类专家依据规范标注,这是监督学习与无监督学习的根本区别。

2.在K折交叉验证中,增大K值最可能带来的副作用是

A.训练时间缩短

B.方差增大

C.偏差增大

D.计算成本上升

答案:D

解析:K越大,训练次数越多,计算量线性增加;同时因每次训练集更接近全量数据,方差趋于减小,偏差趋于减小,但计算成本显著上升。

3.下列正则化方式中,最直接产生稀疏解的是

A.L2正则化

B.L1正则化

C.Dropout

D.BatchNormalization

答案:B

解析:L1正则化在目标函数中增加权重向量的L1范数,其几何性质导致最优解易落在坐标轴上,产生稀疏解。

4.若线性回归的解析解为θ=(X?X)?1X?y,则X?X不可逆时最稳健的替代算法是

A.批量梯度下降

B.牛顿法

C.岭回归

D.逻辑回归

答案:C

解析:岭回归在X?X对角线加入λI,保证矩阵可逆,且对多重共线性具有鲁棒性。

5.在softmax分类器中,当某个隐藏输出z?远大于其他分量时,梯度?L/?z?的模长会

A.趋于0

B.趋于1

C.指数增长

D.与z?无关

答案:A

解析:softmax饱和时概率接近one-hot,损失对z?的梯度趋于0,出现“梯度消失”。

6.若随机森林中某棵树的OOB误差显著高于其他树,合理的处理是

A.增加树的数量

B.减小最大深度

C.剔除该树并重新训练

D.提高特征子集采样比例

答案:C

解析:OOB误差高说明该树拟合质量差,可能成为整体集成噪声源,剔除后重新训练可降低方差。

7.在SVM中引入核函数的根本目的是

A.降低计算复杂度

B.升维使线性可分

C.减少支持向量数量

D.避免过拟合

答案:B

解析:核函数隐式映射到高维特征空间,使原本线性不可分的数据在新空间线性可分。

8.当学习率固定时,Adam优化器在训练后期可能

A.持续发散

B.陷入鞍点

C.因二阶矩估计偏差导致步长过小

D.自动增大学习率

答案:C

解析:Adam的二阶矩估计v?是指数移动平均,训练后期v?趋于稳定且数值较小,导致有效步长衰减,收敛变慢。

9.在图像分类任务中,将输入像素顺序随机打乱后,下列模型性能下降最明显的是

A.多层感知机

B.卷积神经网络

C.随机森林

D.k近邻

答案:B

解析:CNN依赖局部空间相关性,打乱像素破坏局部结构,性能骤降;MLP虽也受影响,但因其权重共享不依赖空间顺序,下降幅度略小。

10.若二分类问题的正负样本比例高达100:1,且更关注正类召回率,最佳策略是

A.直接降低分类阈值

B.对负类进行欠采样

C.采用FocalLoss

D.以上均可

答案:D

解析:降低阈值可提高召回;欠采样可缓解不平衡;FocalLoss通过调制因子降低易分负样本权重,间接提升正类召回。

11.在梯度提升树中,增加“子采样比例”1.0的主要作用是

A.提高偏差

B.降低方差

C.加速收敛

D.减少叶子节点

答案:B

解析:子采样引入随机性,类似bagging,可显著降低方差,防止过拟合。

12.若PCA降维后保留99%方差,则主成分数量k与原始维度d的关系通常满足

A.k?d

B.k=d

C.kd

D.无法确定

答案:A

解析:高维数据往往存在大量冗余,前几个主成分即可集中绝大部分方差,故k远小于d。

13.在BERT微调中,若下游任务数据极少,最佳实践是

A.仅训练分类层

B.全模型微调

C.逐层解冻+discriminativelearningrate

D.增大batchsize

答案:C

解析:逐层解冻配合较低学习率可避免灾难性遗忘,兼顾预训练知识保留与任务适配。

14.若检测模型在验证集上P-R曲线呈“锯齿”状,最可能的原因是

A.类别不平衡

B.验证集过小

C.置信度未排序

D.损失函数选择不当

答案:B

解析:验证集样本少,阈值微小变化导致正负样本切换,P-R曲线出现锯齿。

15.使用早停(earlys

文档评论(0)

1亿VIP精品文档

相关文档