- 0
- 0
- 约8.62千字
- 约 20页
- 2026-01-16 发布于江苏
- 举报
2025年人工智能与机器学习课程期末考试题及答案
一、单项选择题(每题2分,共20分)
1.在机器学习模型训练中,若验证集误差远小于测试集误差,最可能的原因是:
A.模型欠拟合
B.数据泄露(DataLeakage)
C.学习率过大
D.正则化强度过高
2.以下损失函数中,最适合处理类别不平衡二分类任务的是:
A.均方误差(MSE)
B.交叉熵损失(Cross-Entropy)
C.FocalLoss
D.HingeLoss
3.关于BatchNormalization(BN)的描述,错误的是:
A.通常应用在激活函数之后
B.减少内部协变量偏移(InternalCovariateShift)
C.允许使用更大的学习率
D.在推理时使用训练阶段统计的均值和方差
4.假设一个深度神经网络在训练时出现“梯度消失”,最不可能的原因是:
A.使用Sigmoid激活函数
B.网络层数过深
C.使用He初始化
D.未使用残差连接(ResidualConnection)
5.在Transformer模型中,“位置编码(PositionalEncoding)”的主要作用是:
A.替代循环神经网络处理序列顺序
B.增加模型的参数量
C.提升模型的并行计算能力
D.增强特征的空间相关性
6.强化学习中,“策略梯度(PolicyGradient)”方法直接优化的目标是:
A.状态值函数(StateValueFunction)
B.动作值函数(ActionValueFunction)
C.策略的期望累积奖励
D.环境的转移概率
7.评估目标检测模型性能时,若某样本的预测框与真实框的IoU为0.6,且类别正确,则该样本属于:
A.真阳性(TP)
B.假阳性(FP)
C.真阴性(TN)
D.假阴性(FN)
8.生成对抗网络(GAN)中,判别器(Discriminator)的训练目标是:
A.最小化生成数据与真实数据的分布差异
B.最大化将真实数据判断为“真”、生成数据判断为“假”的概率
C.最小化生成数据的多样性
D.最大化生成数据的清晰度
9.在自然语言处理中,BERT模型的预训练任务不包括:
A.掩码语言模型(MLM)
B.下一句预测(NSP)
C.情感倾向分类(SentimentClassification)
D.词元预测(TokenPrediction)
10.关于随机森林(RandomForest)的描述,正确的是:
A.所有决策树使用相同的训练数据
B.每个树的分裂特征子集是随机选择的
C.只能处理分类任务,不能处理回归任务
D.相比单棵决策树,更容易过拟合
二、填空题(每空1分,共15分)
1.决策树中常用的分裂准则包括信息增益、基尼系数和__________。
2.线性回归的闭式解(解析解)公式为__________(用矩阵表示)。
3.反向传播(Backpropagation)的核心思想是利用__________法则,从输出层向输入层逐层计算梯度。
4.循环神经网络(RNN)在处理长序列时容易出现__________问题,主要原因是梯度在反向传播时发生指数级衰减或爆炸。
5.BatchNormalization的计算步骤包括:对每个批次的输入计算均值和方差,然后进行__________和__________操作。
6.注意力机制的核心计算公式为:Attention(Q,K,V)=softmax(__________)V。
7.生成对抗网络(GAN)的目标函数可表示为:min_Gmax_D[E_{x~p_data}logD(x)+E_{z~p_z}log(1-D(G(z)))],其中G是生成器,D是__________。
8.随机森林的“随机”体现在两个方面:一是__________的随机选择,二是__________的随机选择。
9.LSTM(长短期记忆网络)通过三个门控结构控制信息流动,分别是输入门、遗忘门和__________。
10.BERT模型在预训练阶段使用的两种任务是__________和下一句预测(NSP)。
三、简答题(每题5分,共30分)
1.简述支持向量机(SVM)与逻辑回归(LogisticRegression)在建模目标和优化方法上的主要区别。
2.解释深度学习中的“表示学习(Represe
原创力文档

文档评论(0)