- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
(2025校招)人工智能工程师笔试题目及答案
一、单项选择题(每题2分,共20分)
1.以下哪种机器学习算法属于无监督学习?
A.逻辑回归
B.K-means聚类
C.随机森林
D.支持向量机(SVM)
答案:B
解析:无监督学习的目标是从无标签数据中发现模式,K-means通过数据点间的距离自动聚类,属于无监督学习;其余选项均需标签数据训练,属于监督学习。
2.在深度学习中,ReLU激活函数的主要优点是?
A.解决梯度消失问题
B.输出值范围在(0,1)
C.计算复杂度高
D.适用于所有层的激活
答案:A
解析:ReLU(RectifiedLinearUnit)的导数在输入大于0时为1,避免了sigmoid或tanh在饱和区梯度趋近于0的问题,缓解了梯度消失;其输出范围是[0,+∞),计算简单,通常用于隐藏层,输出层较少使用。
3.以下哪种方法不能缓解神经网络的过拟合问题?
A.增加训练数据量
B.降低模型复杂度
C.增大学习率
D.添加L2正则化
答案:C
解析:过拟合是模型对训练数据过度拟合、泛化能力差的表现。增加数据、简化模型、正则化(如L2)均可缓解;增大学习率可能导致训练不稳定或无法收敛,但与过拟合无直接关联。
4.在自然语言处理(NLP)中,Word2Vec的“CBOW”模型是通过什么预测目标词?
A.上下文词预测中心词
B.中心词预测上下文词
C.前向词预测后向词
D.整个句子预测下一个词
答案:A
解析:CBOW(ContinuousBag-of-Words)模型的输入是中心词的上下文词,输出是中心词本身;而Skip-gram模型相反,输入中心词,输出上下文词。
5.以下关于Transformer模型的描述,错误的是?
A.仅基于自注意力机制,无循环或卷积结构
B.编码器处理输入序列,解码器生成输出序列
C.位置编码用于捕捉序列中的顺序信息
D.多头注意力将输入分成多个头,最后拼接输出
答案:无错误选项(注:若需设错误选项,可改为“D.多头注意力将输入分成多个头,最后平均输出”,此时答案为D)
解析:Transformer的多头注意力将输入分割为多个头,并行计算注意力后拼接,而非平均;其余选项均正确。
6.在图像分类任务中,以下哪种数据增强方法不适用于医学影像?
A.随机水平翻转
B.高斯模糊
C.标签随机替换
D.亮度调整
答案:C
解析:医学影像的标签(如病灶位置)具有严格的临床意义,随机替换标签会导致模型学习错误关联,破坏数据真实性;其余方法可在保留语义的前提下增强数据多样性。
7.梯度下降优化中,“动量(Momentum)”的作用是?
A.加速收敛,减少震荡
B.避免局部最优
C.降低计算复杂度
D.增大学习率
答案:A
解析:动量通过累积前一步的梯度方向,平滑参数更新路径,减少震荡并加速收敛;避免局部最优需依赖随机初始化或模拟退火等方法。
8.以下哪项不是生成对抗网络(GAN)的组成部分?
A.生成器(Generator)
B.判别器(Discriminator)
C.编码器(Encoder)
D.对抗损失函数
答案:C
解析:GAN由生成器、判别器和对抗损失构成;编码器是自编码器(Autoencoder)的组成部分。
9.在目标检测中,YOLOv5的“锚框(AnchorBox)”作用是?
A.预定义可能的目标形状和大小,提升检测效率
B.替代特征提取网络
C.直接输出目标类别
D.计算分类损失
答案:A
解析:锚框是预定义的候选框,用于匹配真实目标的形状(如长宽比),减少模型需预测的框数量,提升检测速度和精度。
10.以下关于迁移学习的描述,正确的是?
A.必须使用与目标任务完全相同的数据集
B.仅适用于监督学习
C.可将预训练模型的底层特征迁移到新任务
D.迁移后无需微调
答案:C
解析:迁移学习通过复用预训练模型的底层通用特征(如图像边缘、纹理)到新任务,减少对目标任务数据量的需求;无需数据集完全相同,可适用于半监督/无监督,通常需微调顶层参数。
二、填空题(每空2分,共20分)
1.逻辑回归的损失函数通常使用______,其数学表达式为______(假设标签y∈{0,1},预测概率为p)。
答案:交叉熵损失;\(L=-[y\logp+(1-y)\log(1-p)]\)
文档评论(0)