- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025人工智能考试题及答案
一、单项选择题(每题2分,共20分)
1.以下哪项不属于监督学习任务?
A.图像分类(给定标签的训练集)
B.情感分析(基于标注的评论数据)
C.聚类分析(无标签数据分组)
D.房价预测(基于历史交易数据与价格标签)
答案:C
2.在深度学习中,使用ReLU激活函数的主要目的是:
A.解决梯度爆炸问题
B.缓解梯度消失问题
C.增加模型非线性表达能力
D.提升计算效率
答案:B(注:ReLU在正数区间梯度为1,避免了Sigmoid/tanh在饱和区梯度趋近于0的问题,主要缓解梯度消失;同时也增加非线性,但核心目的是缓解梯度消失)
3.关于Transformer模型的自注意力机制,以下描述错误的是:
A.查询(Query)、键(Key)、值(Value)通过线性变换生成
B.注意力分数计算为Q与K的点积后归一化
C.多头注意力通过多个独立的注意力头增强特征提取能力
D.自注意力的计算复杂度与序列长度成线性关系
答案:D(自注意力复杂度为O(n2),n为序列长度)
4.强化学习中,“折扣因子γ(0≤γ≤1)”的作用是:
A.控制即时奖励与未来奖励的权重
B.调整策略网络的学习率
C.防止值函数估计过拟合
D.平衡探索与利用
答案:A
5.在卷积神经网络(CNN)中,池化层的主要作用是:
A.增加特征图的空间分辨率
B.减少参数数量,提升平移不变性
C.引入非线性激活
D.融合不同层的特征信息
答案:B
6.以下哪种损失函数适用于二分类任务?
A.交叉熵损失(CrossEntropyLoss)
B.均方误差(MSE)
C.绝对平均误差(MAE)
D.对比损失(ContrastiveLoss)
答案:A(二分类常用二元交叉熵,多分类用多类交叉熵;MSE/MAE用于回归任务)
7.自然语言处理(NLP)中,词嵌入(WordEmbedding)的核心目标是:
A.将单词转换为固定长度的离散向量
B.捕捉单词的语义和语法关系
C.减少文本数据的存储占用
D.直接用于文本分类而无需后续处理
答案:B
8.以下哪项属于生成式模型?
A.支持向量机(SVM)
B.逻辑回归(LogisticRegression)
C.朴素贝叶斯(NaiveBayes)
D.k近邻(kNN)
答案:C(生成式模型学习联合分布P(X,Y),判别式模型学习条件分布P(Y|X);SVM、逻辑回归、kNN均为判别式模型)
9.在对抗生成网络(GAN)中,生成器(Generator)的目标是:
A.最大化判别器(Discriminator)将真实样本误判为生成样本的概率
B.最小化生成样本与真实样本的分布差异
C.最大化判别器正确区分真实与生成样本的概率
D.直接生成与真实样本完全相同的样本
答案:B(GAN的目标是通过博弈使生成分布接近真实分布)
10.关于大语言模型(如GPT4)的微调(Finetuning),以下说法正确的是:
A.微调仅需调整模型的输入层参数
B.微调通常使用小样本特定任务数据
C.微调会显著增加模型的参数量
D.微调后的模型无法处理原预训练任务
答案:B(微调是在预训练模型基础上用少量任务相关数据调整部分或全部参数,不改变参数量,保留原任务能力)
二、填空题(每空2分,共20分)
1.机器学习中,偏差(Bias)反映模型对训练数据的________能力,方差(Variance)反映模型对________的敏感程度。
答案:拟合;数据扰动
2.深度学习中,BatchNormalization(BN)层通过对________进行归一化,缓解________问题。
答案:minibatch的激活值;内部协变量偏移
3.Transformer模型的位置编码(PositionalEncoding)用于向模型传递________信息,常见实现方式包括________和________(任写两种)。
答案:序列中tokens的位置;正弦余弦函数编码;可学习的位置嵌入
4.强化学习的三要素是________、________和________。
答案:状态(State);动作(Action);奖励(Reward)
5.在目标检测任务中,非极大值抑制(NMS)的作用是________,其核心步骤是________。
答案:去除重
原创力文档


文档评论(0)