- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025年人工智能知识考试复习题库及答案
一、单项选择题(每题2分,共30分)
1.以下哪项属于监督学习任务?
A.客户分群(聚类)
B.图像风格迁移
C.垃圾邮件分类
D.异常检测
答案:C
解析:监督学习需要标注数据,垃圾邮件分类需要已知标签(垃圾/非垃圾)的训练数据;聚类、异常检测属于无监督学习,图像风格迁移通常基于无监督或自监督方法。
2.在神经网络中,ReLU激活函数的主要优点是?
A.解决梯度消失问题
B.输出范围在(1,1)
C.计算复杂度高
D.适用于所有层的激活
答案:A
解析:ReLU(修正线性单元)的导数在输入为正时为1,避免了sigmoid/tanh在深层网络中因导数小于1导致的梯度消失问题;其输出范围是[0,∞),计算简单,通常用于隐藏层。
3.以下哪种算法不属于生成模型?
A.GAN(生成对抗网络)
B.VAE(变分自编码器)
C.逻辑回归
D.朴素贝叶斯
答案:C
解析:生成模型关注数据生成过程(如GAN生成图像、VAE生成分布、朴素贝叶斯假设特征条件独立),逻辑回归是判别模型,直接学习输入到标签的映射。
4.在自然语言处理(NLP)中,Word2Vec的核心思想是?
A.基于上下文预测目标词(CBOW)或基于目标词预测上下文(Skipgram)
B.利用Transformer的多头注意力机制
C.通过预训练语言模型捕捉长距离依赖
D.对句子进行句法分析
答案:A
解析:Word2Vec通过滑动窗口构建上下文目标词对,CBOW模型用上下文词预测中心词,Skipgram用中心词预测上下文词,从而学习词向量。
5.以下哪项是卷积神经网络(CNN)中池化层的主要作用?
A.增加模型参数数量
B.提取局部空间特征
C.降低特征图的空间维度(下采样)
D.引入非线性变换
答案:C
解析:池化层(如最大池化、平均池化)通过对局部区域取极值或均值,减少特征图的宽度和高度,降低计算量并增强平移不变性;提取局部特征主要由卷积层完成。
6.梯度下降优化中,“动量(Momentum)”的作用是?
A.加速收敛,减少震荡
B.防止过拟合
C.动态调整学习率
D.解决梯度爆炸
答案:A
解析:动量优化引入历史梯度的指数加权平均,使参数更新方向更稳定,减少局部最优的震荡,加速收敛。
7.以下哪个模型是基于Transformer架构的?
A.LSTM
B.BERT
C.LeNet5
D.SVM
答案:B
解析:BERT(双向编码器表示)是基于Transformer的双向预训练语言模型;LSTM是循环神经网络变体,LeNet5是早期CNN,SVM是传统机器学习算法。
8.以下哪项属于强化学习中的“奖励函数”设计目标?
A.最大化累计折扣奖励
B.最小化训练数据误差
C.优化模型参数初始化
D.减少特征维度
答案:A
解析:强化学习的核心是智能体通过与环境交互,学习策略以最大化长期累计奖励(通常包含折扣因子γ)。
9.在目标检测任务中,YOLO(YouOnlyLookOnce)模型的主要特点是?
A.两阶段检测(先区域建议,再分类)
B.单阶段端到端检测,速度快
C.依赖手工设计的特征(如HOG)
D.仅支持小目标检测
答案:B
解析:YOLO将目标检测视为回归问题,直接在单张图像的多个网格中预测边界框和类别,属于单阶段模型,速度显著快于两阶段的FasterRCNN。
10.以下哪种方法可用于解决类别不平衡问题?
A.对少数类样本过采样(Oversampling)
B.增加模型深度
C.使用ReLU激活函数
D.降低学习率
答案:A
解析:类别不平衡时,少数类样本易被模型忽略,过采样(如SMOTE算法)通过生成少数类样本或复制少数类样本平衡数据集;其他选项与类别不平衡无直接关联。
11.自然语言处理中的“词袋模型(BagofWords)”忽略了以下哪项信息?
A.词语出现的频率
B.词语之间的顺序
C.词语的语义相似性
D.停用词的存在
答案:B
解析:词袋模型仅统计词语的出现频率,不考虑词语在句子中的顺序(如“猫追狗”和“狗追猫”会被视为相同特征)。
12.以下哪项是迁移学习的典型应用场景?
A.在大规模未标注数据上预训练模型,再在小样本目标任务上微调
B.使用随机初始化的模型训练新任务
C.仅用目标任务的少量数据训练模型
D.
原创力文档


文档评论(0)