2026年深度学习工程师考试题库(附答案和详细解析)(0207).docxVIP

  • 0
  • 0
  • 约9.14千字
  • 约 11页
  • 2026-03-19 发布于上海
  • 举报

2026年深度学习工程师考试题库(附答案和详细解析)(0207).docx

深度学习工程师考试试卷

一、单项选择题(共10题,每题1分,共10分)

以下关于ReLU激活函数的描述中,正确的是()

A.输出均值为0,有利于网络训练

B.计算复杂度高,需指数运算

C.能有效缓解深层网络的梯度消失问题

D.适用于所有神经网络层的输出层

答案:C

解析:ReLU(修正线性单元)的主要优点是当输入为正时梯度为1,避免了Sigmoid等激活函数因导数小于1导致的梯度消失问题(C正确)。其输出均值不为0(均值约为输入正数部分的均值,A错误);计算仅需取max(0,x),复杂度低(B错误);输出层通常根据任务选择Sigmoid(二分类)或Softmax(多分类),而非ReLU(D错误)。

在训练深度神经网络时,BatchNormalization(BN)的主要作用是()

A.减少训练数据的类别不平衡问题

B.加速训练过程并提高模型泛化能力

C.增强模型对输入噪声的鲁棒性

D.直接解决梯度爆炸问题

答案:B

解析:BN通过对每个batch的中间层输出进行归一化(均值0,方差1),减少“内部协变量偏移”,使各层输入分布更稳定,从而加速训练并提升泛化能力(B正确)。类别不平衡需通过重采样或加权损失解决(A错误);增强鲁棒性通常通过数据增强(C错误);梯度爆炸主要通过梯度裁剪或合理初始化解决(D错误)。

以下哪种优化器采用了“动量(Momentum)”机制来

文档评论(0)

1亿VIP精品文档

相关文档