2026年深度学习工程师考试题库(附答案和详细解析)(0220).docxVIP

  • 0
  • 0
  • 约8.58千字
  • 约 11页
  • 2026-03-25 发布于上海
  • 举报

2026年深度学习工程师考试题库(附答案和详细解析)(0220).docx

深度学习工程师考试试卷(总分100分)

一、单项选择题(共10题,每题1分,共10分)

以下关于ReLU激活函数的描述,正确的是()

A.解决了梯度爆炸问题

B.在输入为负时梯度为0

C.输出具有零均值特性

D.适用于所有神经网络层

答案:B

解析:ReLU(RectifiedLinearUnit)的数学表达式为(f(x)=(0,x))。当输入(x0)时,输出为0且梯度为0(A错误);其输出均值不为零(C错误);在深层网络中,ReLU的负区间会导致“神经元死亡”,因此并非适用于所有层(如输出层通常不用ReLU,D错误)。

深层神经网络中梯度消失的主要原因是()

A.学习率设置过大

B.激活函数导数绝对值长期小于1(如Sigmoid)

C.BatchSize过小

D.使用SGD优化器

答案:B

解析:梯度消失的本质是反向传播时,各层梯度的乘积因激活函数导数(如Sigmoid的导数最大值为0.25)小于1而逐步衰减(B正确)。学习率过大可能导致梯度爆炸(A错误);BatchSize过小影响梯度估计稳定性(C错误);优化器类型不直接导致梯度消失(D错误)。

BatchNormalization(BN)通常应用于()

A.激活函数之后,全连接层之前

B.全连接层之后,激活函数之前

C.输入层之前

D.输出层之后

答案:B

解析

文档评论(0)

1亿VIP精品文档

相关文档