2025年人工智能工程师考试题库(附答案和详细解析)(1229).docxVIP

  • 3
  • 0
  • 约7.78千字
  • 约 11页
  • 2026-01-04 发布于江苏
  • 举报

2025年人工智能工程师考试题库(附答案和详细解析)(1229).docx

人工智能工程师考试试卷(总分100分)

一、单项选择题(共10题,每题1分,共10分)

以下哪项属于监督学习任务?

A.客户分群(聚类)

B.图像风格迁移(生成模型)

C.垃圾邮件分类(标签预测)

D.异常检测(无标签异常识别)

答案:C

解析:监督学习需要标注数据(输入-标签对),目标是学习输入到标签的映射。选项C的垃圾邮件分类需要“正常/垃圾”标签作为监督信号;A(聚类)、D(异常检测)属于无监督学习;B(风格迁移)通常基于无监督或自监督学习。

在卷积神经网络(CNN)中,池化层的主要作用是?

A.增加特征图的空间分辨率

B.减少参数数量并提取平移不变性特征

C.引入非线性激活增强表达能力

D.直接输出最终分类结果

答案:B

解析:池化层(如最大池化)通过降采样减少特征图尺寸,降低计算量(减少参数),同时保留主要特征,使模型对输入的小位移更鲁棒(平移不变性)。A错误(池化降低分辨率);C是激活函数(如ReLU)的作用;D是全连接层的作用。

自然语言处理(NLP)中,词嵌入(WordEmbedding)的核心目标是?

A.将单词转换为固定长度的二进制向量

B.捕捉单词的语义和语法关系

C.直接生成完整的句子

D.统计单词在文本中的出现频率

答案:B

解析:词嵌入通过低维连续向量表示单词,使语义/语法相近的词在向量空间中距离更近(如“猫”和“狗”相近,“猫”和“汽车”较远)。A错误(二进制向量是独热编码);C是生成模型(如LSTM)的作用;D是词袋模型的统计方式。

强化学习(RL)中,“奖励函数”的主要作用是?

A.定义智能体的初始状态

B.指导智能体学习最优策略

C.存储历史状态-动作对

D.计算状态转移概率

答案:B

解析:奖励函数是环境对智能体动作的即时反馈,智能体通过最大化长期累积奖励来学习最优策略(即“做什么动作能获得最多奖励”)。A是初始状态定义;C是经验回放缓冲区的作用;D是环境本身的属性(如马尔可夫决策过程的转移概率)。

以下哪种算法属于生成式模型?

A.支持向量机(SVM)

B.朴素贝叶斯

C.k近邻(k-NN)

D.逻辑回归

答案:B

解析:生成式模型学习联合概率P(X,Y)(输入X和标签Y的联合分布),朴素贝叶斯通过贝叶斯定理计算P(Y|X)。判别式模型直接学习P(Y|X)(如SVM、逻辑回归)或决策边界(如k-NN)。

在训练深度学习模型时,“过拟合”的典型表现是?

A.训练集和测试集准确率都很低

B.训练集准确率高,测试集准确率低

C.训练集准确率低,测试集准确率高

D.训练过程中损失值持续波动

答案:B

解析:过拟合指模型过度学习训练数据的噪声和细节,导致对新数据(测试集)泛化能力差,表现为训练集准确率高但测试集准确率低。A是欠拟合;C不可能;D可能是学习率过高或数据不稳定。

以下哪项是Transformer模型的核心组件?

A.循环单元(LSTM)

B.自注意力机制(Self-Attention)

C.卷积核(Filter)

D.批量归一化(BatchNorm)

答案:B

解析:Transformer通过自注意力机制(计算序列中每个位置与其他位置的关联)捕捉长距离依赖,替代了RNN的循环结构。A是RNN的组件;C是CNN的组件;D是通用归一化技术,非Transformer特有。

评估分类模型性能时,“F1分数”是以下哪两个指标的调和平均?

A.准确率(Accuracy)和召回率(Recall)

B.精确率(Precision)和召回率(Recall)

C.精确率(Precision)和准确率(Accuracy)

D.真阳性率(TPR)和假阳性率(FPR)

答案:B

解析:F1=2(PR)/(P+R),其中P是精确率(预测为正且实际为正的比例),R是召回率(实际为正且被正确预测的比例)。A错误(准确率=正确样本/总样本);D是ROC曲线的指标。

以下哪项属于计算机视觉中的“目标检测”任务?

A.图像分类(判断图像整体类别)

B.语义分割(为每个像素分配类别)

C.识别图像中“猫”的位置并标注边界框

D.图像超分辨率(提升图像清晰度)

答案:C

解析:目标检测需要同时定位(边界框)和分类(类别标签)图像中的多个目标。A是单标签分类;B是像素级分类;D是图像生成任务。

人工智能伦理中,“算法偏见”的主要原因是?

A.计算资源不足导致模型训练不充分

B.训练数据中存在歧视性或不平衡的样本分布

C.模型复杂度不够无法捕捉数据规律

D.开发者故意设置歧视性规则

答案:B

解析:算法偏见通常源于训练数据的偏差(如性别、种族样本分布不均),导致模型在预测时对特定群体产生不公平结果。A、C是模型性能问题;D是恶意设计,非主要原因。

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档