《深度学习理论》期末考试试卷附答案.docxVIP

  • 7
  • 0
  • 约5.11千字
  • 约 12页
  • 2025-08-21 发布于四川
  • 举报

《深度学习理论》期末考试试卷附答案.docx

《深度学习理论》期末考试试卷附答案

注意事项:本试卷满分100分,考试时间120分钟;请将答案写在答题纸上,保持字迹工整。

一、单项选择题(每题2分,共20分)

1.以下激活函数中,在输入值较大或较小时梯度趋近于0的是()。

A.ReLU(修正线性单元)

B.LeakyReLU(带泄漏的修正线性单元)

C.sigmoid(逻辑函数)

D.GELU(高斯误差线性单元)

2.交叉熵损失函数(Cross-EntropyLoss)通常用于以下哪种任务?()

A.回归预测(如房价预测)

B.多分类任务(如图像分类)

C.无监督聚类(如K-means)

D.生成任务(如GAN生成图像)

3.梯度消失(VanishingGradient)现象主要发生在以下哪种场景?()

A.使用ReLU激活函数的浅层网络

B.使用sigmoid激活函数的深层网络

C.使用Adam优化器的小批量训练

D.使用Dropout正则化的模型推理阶段

4.BatchNormalization(批量归一化)的核心作用是()。

A.加速模型收敛,缓解内部协变量偏移(InternalCovariateShift)

B.减少过拟合,提高模型泛化能力

C.增加模型非线性,提升表达能力

D.降低计算复杂度,减少内存占用

5.以下优化算法中,同时结合了动量(Momentum)和自适应学习率(AdaptiveLearningRate)的是()。

A.SGD(随机梯度下降)

B.RMSprop(均方根传播)

C.Adam(自适应矩估计)

D.Adagrad(自适应梯度算法)

6.LSTM(长短期记忆网络)中,遗忘门(ForgetGate)的主要功能是()。

A.控制当前输入信息的保留比例

B.决定是否将候选记忆(CandidateMemory)写入细胞状态(CellState)

C.调节细胞状态中旧信息的遗忘程度

D.生成当前时间步的输出信息

7.卷积神经网络(CNN)中,感受野(ReceptiveField)指的是()。

A.卷积核的大小(如3×3)

B.特征图中一个像素对应原始输入图像的区域

C.池化操作的步长(Stride)

D.全连接层的神经元数量

8.自注意力机制(Self-Attention)在Transformer模型中的核心优势是()。

A.降低计算复杂度,优于循环神经网络

B.显式捕捉序列中任意位置的依赖关系

C.减少参数数量,提升模型泛化能力

D.支持并行计算,加速训练过程

9.以下正则化方法中,通过随机删除部分神经元来防止过拟合的是()。

A.L1正则化(L1Regularization)

B.L2正则化(L2Regularization)

C.Dropout

D.数据增强(DataAugmentation)

10.迁移学习(TransferLearning)中,“微调”(Fine-tuning)策略的关键步骤是()。

A.直接使用预训练模型的输出层,不修改任何参数

B.冻结预训练模型的底层特征提取层,仅训练顶层分类层

C.随机初始化所有参数,重新训练整个模型

D.解冻部分底层参数,与顶层参数共同训练

二、填空题(每题2分,共20分)

1.反向传播(Backpropagation)算法的核心是利用__________法则,从输出层向输入层逐层计算损失函数对各参数的梯度。

2.Transformer模型中,自注意力机制的计算表达式为:Attention(Q,K,V)=__________,其中Q、K、V分别为查询、键、值矩阵,d_k为键的维度。

3.过拟合(Overfitting)的典型表现是模型在__________集上的准确率远高于__________集。

4.循环神经网络(RNN)的梯度消失问题本质是由于__________在反向传播时多次连乘导致梯度趋近于0。

5.损失函数(LossFunction)用于衡量模型预测值与真实值的差异,回归任务常用__________损失,分类任务常用_______

文档评论(0)

1亿VIP精品文档

相关文档