- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025年人工智能工程师资格考试试卷及答案解析
一、单项选择题(每题2分,共20分)
1.以下关于监督学习与无监督学习的描述中,错误的是()。
A.监督学习需要标注数据,无监督学习不需要
B.K-means是典型的无监督学习算法,SVM是监督学习算法
C.监督学习的目标是学习输入到输出的映射,无监督学习的目标是发现数据内在结构
D.半监督学习同时使用标注和未标注数据,其效果一定优于仅用标注数据的监督学习
答案:D
解析:半监督学习利用未标注数据辅助训练,但效果受数据质量、模型设计等因素影响,不一定“一定优于”监督学习,因此D错误。
2.在深度学习中,使用ReLU激活函数的主要优点是()。
A.避免梯度消失问题
B.输出范围在(0,1),适合二分类
C.计算复杂度低,导数恒定
D.解决了梯度爆炸问题
答案:A
解析:ReLU(修正线性单元)的导数在输入0时为1,避免了sigmoid/tanh在输入较大或较小时梯度趋近于0的“梯度消失”问题,因此A正确。B是sigmoid的特点,C中导数不恒定(输入0时导数为0),D需通过权重初始化或梯度裁剪解决。
3.以下哪项不是Transformer模型中注意力机制的核心组成部分?()
A.查询(Query)、键(Key)、值(Value)矩阵
B.多头注意力(Multi-HeadAttention)
C.位置编码(PositionalEncoding)
D.门控循环单元(GRU)
答案:D
解析:Transformer的注意力机制核心包括QKV矩阵、多头注意力和位置编码(解决序列顺序问题)。GRU是循环神经网络(RNN)的改进结构,与Transformer无关,因此D错误。
4.评估图像分类模型性能时,若某类别的召回率(Recall)为0.8,精确率(Precision)为0.6,则该类别的F1值为()。
A.0.65
B.0.69
C.0.72
D.0.75
答案:B
解析:F1值计算公式为2×(Precision×Recall)/(Precision+Recall),代入得2×(0.6×0.8)/(0.6+0.8)=0.96/1.4≈0.69,因此选B。
5.以下哪种技术可有效缓解深度神经网络的过拟合问题?()
A.增加训练数据量
B.减少网络层数
C.提高学习率
D.移除正则化项
答案:A
解析:过拟合的本质是模型对训练数据过度学习,泛化能力差。增加训练数据量可提升模型泛化能力;减少层数可能导致欠拟合;提高学习率可能使训练不稳定;移除正则化会加剧过拟合。因此选A。
二、填空题(每空2分,共20分)
1.机器学习中,交叉熵损失函数适用于______任务,其公式为______(假设真实标签为y,预测概率为p)。
答案:分类;-ylog(p)-(1-y)log(1-p)(二分类场景)或-Σy_ilog(p_i)(多分类场景)
2.卷积神经网络(CNN)中,池化层的主要作用是______和______。
答案:降低特征图尺寸(降维);平移不变性(或提取局部不变特征)
3.在生成对抗网络(GAN)中,生成器(Generator)的目标是______,判别器(Discriminator)的目标是______。
答案:生成与真实数据分布一致的样本;区分真实样本与生成样本
4.自然语言处理中,BERT模型的预训练任务包括______和______。
答案:掩码语言模型(MLM);下一句预测(NSP)
5.强化学习中,Q-learning的核心是学习状态-动作值函数Q(s,a),其更新公式为______(用符号表示即可)。
答案:Q(s,a)←Q(s,a)+α[r+γmax_aQ(s,a)-Q(s,a)](α为学习率,γ为折扣因子)
三、简答题(每题8分,共40分)
1.简述梯度消失(GradientVanishing)的产生原因及常用解决方法。
答案:
原因:深度神经网络中,使用sigmoid或tanh等激活函数时,其导数在输入较大或较小时趋近于0(如sigmoid导数最大值为0.25)。反向传播时,多层梯度连乘会导致底层网络的梯度极小,参数更新缓慢甚至停止。
解决方法:
①使用ReLU系列激活函数(如LeakyReLU、PReLU),其导数在输入0时为1,避免梯度消失;
②采用残差网络(ResNet),通过跳跃连接(SkipConnection)提供梯度传播的直接路径;
您可能关注的文档
最近下载
- 防火安全用电课件.ppt VIP
- 应用抽样技术(第三版)李金昌课后习题答案.docx VIP
- 五年级道德与法治上册期中考试卷及答案【学生专用】.docx VIP
- 离散输入inspectionrun1电梯技术8 dcss vfj.pdf VIP
- 《中国肌肉减少症诊疗指南(2024版)》解读PPT课件.pptx VIP
- “十五五”服务业高质量发展规划_1.docx
- QC成果-提高大面积金刚砂地坪一次验收平整度合格率.pdf VIP
- 五年级《道德与法治》上册期中考试卷及答案.docx VIP
- 山东省德州市2024-2025学年高二上学期期中考试生物试题..docx VIP
- 李可老中医急危重症疑难病经验专辑(精品版本).docx VIP
原创力文档


文档评论(0)