- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025年机器学习应用技术考试试卷及答案
一、单项选择题(每题2分,共20分)
1.以下哪种机器学习任务属于无监督学习?
A.预测房价(连续值)
B.图像分类(给定标签)
C.客户分群(无先验标签)
D.情感分析(正/负向)
2.关于Transformer模型的描述,错误的是?
A.自注意力机制允许模型并行计算
B.位置编码用于捕捉序列中的顺序信息
C.解码器仅使用自注意力层
D.多头注意力通过多个子空间增强特征提取能力
3.在二分类任务中,若模型预测正类的概率阈值从0.5调整为0.6,最可能发生的变化是?
A.召回率上升,精确率下降
B.召回率下降,精确率上升
C.F1分数一定上升
D.准确率一定上升
4.以下哪项不是梯度下降算法的优化变体?
A.Adam
B.RMSprop
C.L1正则化
D.Momentum
5.小样本学习(Few-shotLearning)的核心目标是?
A.仅用少量标注数据训练高性能模型
B.提升大规模数据下的训练效率
C.解决类别不平衡问题
D.降低模型参数量
6.多模态学习中,“文本-图像”对齐任务的关键是?
A.统一不同模态的特征空间
B.增加单一模态的特征维度
C.减少计算复杂度
D.提高模型泛化到新模态的能力
7.联邦学习(FederatedLearning)的主要挑战是?
A.数据集中存储带来的隐私风险
B.各参与方数据分布差异(非独立同分布)
C.模型参数量过大导致训练缓慢
D.标注数据不足
8.关于XGBoost与LightGBM的对比,正确的是?
A.XGBoost使用GOSS采样,LightGBM使用预排序算法
B.LightGBM支持类别特征直接输入,XGBoost需独热编码
C.XGBoost采用深度优先分裂,LightGBM采用叶子优先分裂
D.两者均不支持并行计算
9.在卷积神经网络(CNN)中,1×1卷积核的主要作用是?
A.增加感受野
B.降低/调整特征图通道数
C.提取局部空间特征
D.替代全连接层
10.以下哪种损失函数适用于多分类任务且直接优化类别间的区分度?
A.均方误差(MSE)
B.交叉熵损失(Cross-Entropy)
C.三元组损失(TripletLoss)
D.铰链损失(HingeLoss)
二、填空题(每空2分,共20分)
1.逻辑回归的决策函数是\_\_\_\_\_\_\_\_\_\_\_\_。
2.随机森林通过\_\_\_\_\_\_\_\_\_\_\_(采样方法)和\_\_\_\_\_\_\_\_\_\_\_(特征采样)实现基模型的多样性。
3.正则化的核心目的是\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_\_。
4.Transformer模型中,注意力得分的计算式为\_\_\_\_\_\_\_\_\_\_\_\_(用Q、K表示)。
5.生成对抗网络(GAN)由\_\_\_\_\_\_\_\_\_\_\_和\_\_\_\_\_\_\_\_\_\_\_两个子网络组成。
6.小样本学习的典型方法包括\_\_\_\_\_\_\_\_\_\_\_(如MAML)和\_\_\_\_\_\_\_\_\_\_\_(如原型网络)。
7.评估推荐系统的常用指标除准确率外,还包括\_\_\_\_\_\_\_\_\_\_\_(衡量覆盖范围)和\_\_\_\_\_\_\_\_\_\_\_(衡量新颖性)。
三、简答题(每题8分,共40分)
1.简述过拟合的定义、常见原因及至少3种解决方法。
2.对比随机森林(RandomForest)与XGBoost在模型结构、优化目标和适用场景上的差异。
3.解释BERT预训练的两个核心任务(MLM和NSP),并说明NSP任务在后续改进(如RoBERTa)中被移除的原因。
4.小样本学习(Few-shotLearning)面临的主要挑战有哪些?列举2种主流解决方法并简述其原理。
5.多模态学习中,“早期融合”与“晚期融合”的区别是什么?各举1种典型方法并分析其优缺点。
四、编程题(共20分)
任务1(10分):使用PyTorch实现一个逻辑回归模型,完成二分类任务
数据描述:给定二维特征数据集`X_train`(形状[1000,2])、标签`y_train`(0/1,形状[1000]),`X_test`(形状[
文档评论(0)