- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025年人工智能笔试题及答案
一、单项选择题(每题2分,共20分)
1.以下哪种机器学习算法属于无监督学习?
A.逻辑回归
B.K-means聚类
C.支持向量机(SVM)
D.随机森林
答案:B
解析:无监督学习不依赖标签数据,K-means通过数据点间的距离自动聚类,属于无监督;其余选项均需标签训练,为监督学习。
2.在深度学习中,若某层输出梯度在反向传播时趋近于0,可能的原因是?
A.使用ReLU激活函数
B.使用Sigmoid激活函数且输入值过大
C.学习率设置过高
D.批量归一化(BatchNorm)层被移除
答案:B
解析:Sigmoid的导数在输入绝对值较大时趋近于0(梯度消失),ReLU在输入为正时梯度恒为1,可缓解此问题;学习率过高会导致梯度爆炸或震荡;BatchNorm主要解决内部协变量偏移,与梯度消失无直接关联。
3.以下哪项不是Transformer模型中注意力机制(Attention)的核心计算步骤?
A.计算查询(Query)与键(Key)的相似度
B.对相似度矩阵进行Softmax归一化
C.将值(Value)与归一化后的相似度加权求和
D.对输入序列进行位置编码
答案:D
解析:位置编码是为弥补Transformer缺乏序列位置信息的补充操作,并非注意力机制本身的计算步骤;A、B、C是注意力计算的标准流程(Attention(Q,K,V)=Softmax(QK?/√d_k)V)。
4.训练一个图像分类模型时,若验证集准确率远低于训练集,但测试集准确率与验证集接近,最可能的问题是?
A.数据泄露
B.过拟合
C.欠拟合
D.标签噪声
答案:B
解析:训练集与验证集的性能差距大(高训练准确率+低验证准确率)是典型过拟合表现;数据泄露会导致验证/测试集准确率异常高;欠拟合时训练集准确率本身较低;标签噪声会同时影响训练和验证效果。
5.以下哪项是大语言模型(如GPT-4)训练中常用的优化策略?
A.固定学习率从头训练至收敛
B.仅使用单卡单GPU训练
C.采用LoRA(低秩适配)进行参数高效微调
D.忽略长序列的位置信息
答案:C
解析:LoRA通过低秩矩阵近似更新部分参数,大幅减少微调所需计算资源,是大模型微调的主流方法;大模型训练通常使用动态学习率(如余弦衰减)、多卡并行(如张量并行、流水线并行),且需通过位置编码或相对位置注意力处理长序列。
6.在目标检测任务中,YOLOv8相比FasterR-CNN的主要优势是?
A.更高的检测精度
B.更快的推理速度
C.支持多尺度目标检测
D.无需锚框(Anchor)设计
答案:B
解析:YOLO系列是单阶段检测模型,直接回归目标位置和类别,推理速度显著快于双阶段的FasterR-CNN(需先通过RPN生成候选框);FasterR-CNN在小目标检测等场景精度更优;两者均支持多尺度检测;YOLOv8仍使用锚框(或称为“先验框”)。
7.自然语言处理(NLP)中,以下哪种任务属于生成任务?
A.文本分类
B.命名实体识别(NER)
C.机器翻译
D.情感分析
答案:C
解析:生成任务需输出新的文本序列(如翻译、摘要),而分类、NER、情感分析均为判别任务(预测标签或位置)。
8.强化学习中,Q-learning与策略梯度(PolicyGradient)的主要区别是?
A.Q-learning基于值函数,策略梯度直接优化策略
B.Q-learning适用于连续动作空间,策略梯度适用于离散空间
C.Q-learning需要环境模型,策略梯度不需要
D.Q-learning是离线学习,策略梯度是在线学习
答案:A
解析:Q-learning通过估计动作值函数(Q值)间接优化策略,策略梯度直接对策略参数进行梯度上升;策略梯度更适合连续动作空间;两者均可无模型(不依赖环境转移概率);Q-learning可以是离线(如使用经验回放),策略梯度通常在线(基于当前策略采样数据)。
9.以下哪项是对抗样本(AdversarialExample)的典型特征?
A.对人类感知无明显变化,但导致模型误分类
B.输入数据中存在大量噪声,模型无法处理
C.样本标签被错误标记,导致模型训练失败
D.输入数据维度远高于模型设计的输入维度
答案:A
解析:对抗样本通过微小扰动(人类难以察觉)使模型输出错误结果,核心是“感知不可区分但模型失效”;噪声数据是明显的干扰,标签错误属于数
文档评论(0)