- 0
- 0
- 约9.14千字
- 约 11页
- 2026-03-19 发布于上海
- 举报
深度学习工程师考试试卷
一、单项选择题(共10题,每题1分,共10分)
以下关于ReLU激活函数的描述中,正确的是()
A.输出均值为0,有利于网络训练
B.计算复杂度高,需指数运算
C.能有效缓解深层网络的梯度消失问题
D.适用于所有神经网络层的输出层
答案:C
解析:ReLU(修正线性单元)的主要优点是当输入为正时梯度为1,避免了Sigmoid等激活函数因导数小于1导致的梯度消失问题(C正确)。其输出均值不为0(均值约为输入正数部分的均值,A错误);计算仅需取max(0,x),复杂度低(B错误);输出层通常根据任务选择Sigmoid(二分类)或Softmax(多分类),而非ReLU(D错误)。
在训练深度神经网络时,BatchNormalization(BN)的主要作用是()
A.减少训练数据的类别不平衡问题
B.加速训练过程并提高模型泛化能力
C.增强模型对输入噪声的鲁棒性
D.直接解决梯度爆炸问题
答案:B
解析:BN通过对每个batch的中间层输出进行归一化(均值0,方差1),减少“内部协变量偏移”,使各层输入分布更稳定,从而加速训练并提升泛化能力(B正确)。类别不平衡需通过重采样或加权损失解决(A错误);增强鲁棒性通常通过数据增强(C错误);梯度爆炸主要通过梯度裁剪或合理初始化解决(D错误)。
以下哪种优化器采用了“动量(Momentum)”机制来
您可能关注的文档
最近下载
- 学堂在线 雨课堂 学堂云 医学科研设计 章节测试答案.docx VIP
- 2025年冀少版七年级下册生物第四单元第五章人体生命活动的调节提升训练(含答案).docx VIP
- 学堂在线 雨课堂 学堂云 《资治通鉴》导读 章节测试答案.docx VIP
- AITO-问界-M7-车主手册说明书.pdf VIP
- 致用英语(第三版)听力教程1教学课件Unit 2-PPT课件.pptx VIP
- 2026年气候变化课件PPT设计.pptx VIP
- YBT 6275-2024《洗油 α-甲基萘和β-甲基萘含量的测定 气相色谱法》.docx
- 冀少版(2024)新教材七年级生物下册《第五章 人体生命活动的调节》单元卷·考点卷(5大考点)(含答案).doc VIP
- 护理质量改善项目申报ppt.pptx VIP
- 我帮爸妈择择菜小学一年级上册劳动教育讲课PPT课件.pptx VIP
原创力文档

文档评论(0)