- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025年人工智能期末试题(含答案)
一、单项选择题(每题2分,共20分)
1.以下哪项不属于监督学习任务?
A.图像分类(给定标签的训练集)
B.情感分析(基于标注的用户评论)
C.聚类分析(无标签数据分组)
D.房价预测(基于历史成交数据和价格标签)
答案:C
2.在神经网络中,ReLU激活函数的主要优点是?
A.解决梯度消失问题
B.输出范围在(0,1)之间
C.计算复杂度高
D.适用于所有层的激活
答案:A
3.以下哪项是Transformer模型的核心机制?
A.循环记忆单元
B.注意力机制(Self-Attention)
C.卷积核滑动窗口
D.强化学习奖励函数
答案:B
4.在强化学习中,“智能体(Agent)”的核心目标是?
A.最小化损失函数
B.最大化累积奖励(CumulativeReward)
C.优化特征提取器
D.生成对抗样本
答案:B
5.关于支持向量机(SVM),以下描述错误的是?
A.目标是找到最大间隔超平面
B.核函数用于处理线性不可分数据
C.对高维数据表现较差
D.适用于小样本分类任务
答案:C
6.自然语言处理(NLP)中,“词嵌入(WordEmbedding)”的主要作用是?
A.将文本转换为结构化表格数据
B.捕捉词语的语义和上下文关系
C.直接生成自然语言文本
D.统计词频分布
答案:B
7.在决策树算法中,“信息增益(InformationGain)”用于?
A.评估特征的分类能力
B.计算树的深度
C.剪枝以防止过拟合
D.确定叶节点的类别
答案:A
8.以下哪项属于生成式模型?
A.逻辑回归(LogisticRegression)
B.条件随机场(CRF)
C.隐马尔可夫模型(HMM)
D.支持向量机(SVM)
答案:C
9.在深度学习中,“批量归一化(BatchNormalization)”的主要目的是?
A.减少模型参数量
B.加速训练收敛,缓解内部协变量偏移
C.增强模型的非线性表达能力
D.防止过拟合
答案:B
10.以下哪项不是迁移学习(TransferLearning)的典型应用场景?
A.利用预训练的BERT模型微调情感分析任务
B.将ImageNet预训练的CNN模型迁移到医学影像分类
C.基于大量标注的英文语料训练中文翻译模型
D.用小规模标注数据训练全新的图像分类模型
答案:D
二、填空题(每空1分,共15分)
1.机器学习的三要素包括模型、策略和算法。
2.神经网络中,常用的损失函数有交叉熵损失(Cross-EntropyLoss)(用于分类任务)和均方误差(MSE)(用于回归任务)。
3.Transformer模型的编码器(Encoder)由多头注意力层和前馈全连接层组成,解码器(Decoder)额外包含掩码注意力层以处理序列生成的顺序依赖。
4.强化学习的核心组成包括智能体(Agent)、环境(Environment)、状态(State)、动作(Action)和奖励(Reward)。
5.卷积神经网络(CNN)中,卷积层的作用是提取局部特征,池化层的作用是降低特征维度,增强平移不变性。
6.生成对抗网络(GAN)由生成器(Generator)和判别器(Discriminator)组成,二者通过对抗训练优化目标。
三、简答题(每题8分,共40分)
1.简述过拟合(Overfitting)的定义、产生原因及常用解决方法。
答案:
过拟合指模型在训练集上表现很好,但在未见过的测试集上泛化能力差的现象。
产生原因:模型复杂度过高(如参数过多)、训练数据量不足、数据噪声干扰等。
解决方法:增加训练数据量、正则化(L1/L2正则、Dropout)、早停法(EarlyStopping)、特征选择(减少冗余特征)、模型简化(如降低神经网络层数)。
2.对比循环神经网络(RNN)与Transformer模型在处理序列数据时的优缺点。
答案:
RNN优点:通过循环单元(如LSTM、GRU)捕捉序列的长期依赖关系,适合处理变长序列;
RNN缺点:梯度消失/爆炸问题(长序列时记忆能力下降)、并行计算能力差(需按顺序处理每个时间步)。
Transformer优点:通过自注意力机制(Self-Attention)直接建模序列中任意位置的
原创力文档


文档评论(0)