- 1
- 0
- 约7.3千字
- 约 15页
- 2026-02-28 发布于四川
- 举报
2025年人工智能技术知识普及试题及答案解析
1.单项选择题(每题1分,共20分)
1.1在Transformer架构中,用于捕捉输入序列中任意两个位置之间依赖关系的核心机制是
A.卷积核滑动窗口?B.循环隐状态传递?C.自注意力权重矩阵?D.池化下采样
答案:C?解析:自注意力通过QK^T计算任意位置间的权重,实现全局依赖建模。
1.2下列关于ReLU激活函数的描述,正确的是
A.在负区间梯度为1?B.输出均值恒为0?C.存在“神经元死亡”风险?D.计算需指数运算
答案:C?解析:负区间梯度为0,导致权重永不更新,即“死亡”。
1.3联邦学习中,参与方上传的是
A.原始训练数据?B.模型参数或梯度?C.测试集准确率?D.损失函数曲线
答案:B?解析:为保护隐私,仅上传加密后的参数/梯度。
1.4在StableDiffusion模型里,扩散过程发生在
A.像素空间直接加噪?B.文本嵌入空间加噪?C.低维潜空间加噪?D.对抗隐空间加噪
答案:C?解析:先VAE编码到潜空间,再执行DDPM,降低计算量。
1.5下列评价指标中,对类别不平衡最不敏感的是
A.准确率?B.宏平均F1?C.微平均F1?D.Cohen’sKappa
答案:B?解析:宏平均F1对每类单独计算后取平均,不受多数类主导。
1.6在深度强化学习中,DDPG算法属于
A.基于策略梯度的无模型方法?B.基于价值函数的模型方法?C.ActorCritic连续控制?D.表格型Q学习
答案:C?解析:DDPG=DPG+DQN,用于连续动作空间。
1.7下列关于VisionTransformer(ViT)的叙述,错误的是
A.图像被切分为固定大小patches?B.使用绝对位置编码?C.分类头仅使用CLStoken?D.层间必须使用局部注意力窗口
答案:D?解析:ViT使用全局自注意力,无局部窗口限制。
1.8在PyTorch中,tensor.backward()执行的是
A.符号求导?B.数值微分?C.反向模式自动微分?D.前向模式自动微分
答案:C?解析:PyTorch采用反向模式(reversemodeAD)。
1.9下列哪项技术最适用于“将预训练大模型适配到下游小数据集”
A.网格搜索?B.知识蒸馏?C.微调?D.超参数随机搜索
答案:C?解析:微调通过继续训练顶层或全部层实现迁移。
1.10在GPT3的Fewshot推理中,提示模板里不包含
A.任务描述?B.示例输入输出对?C.待预测输入?D.验证集损失
答案:D?解析:验证集损失不在推理阶段出现。
1.11下列关于BatchNorm的描述,正确的是
A.训练与测试阶段使用相同统计量?B.可缓解内部协变量偏移?C.会增加网络过拟合风险?D.必须放在激活函数之后
答案:B?解析:BatchNorm通过标准化缓解内部分布漂移。
1.12在目标检测中,YOLOv8相对于YOLOv5的主要改进之一是
A.引入FPN?B.采用AnchorFree检测头?C.使用SoftNMS训练?D.移除Mosaic增强
答案:B?解析:YOLOv8默认AnchorFree,简化超参。
1.13下列关于A搜索算法的启发函数h(n)的叙述,正确的是
A.可允许高估?B.必须满足h(n)≤h(n)?C.必须为0?D.与g(n)无关
答案:B?解析:可容启发需低估真实代价,保证最优。
1.14在Python中,使用multiprocessing模块时,若共享大型只读模型参数,最佳方式是
A.使用Queue拷贝?B.使用Manager.list?C.使用torch.multiprocessing.set_start_method(spawn)并共享CUDAtensor?D.使用全局变量
答案:C?解析:spawn+CUDAIPC可避免重复显存拷贝。
1.15下列关于模型压缩技术,属于“结构化剪枝”的是
A.将单个权重置零?B.整通道剪枝?C.权重共享哈希?D.低秩分解
答案:B?解析:整通道剪枝直接删除滤波器,保留规则形状。
1.16在DiffusionModel训练阶段,损失函数通常采用
A.预测噪声的MSE?B.预测像素的交叉熵?C.对抗损失?D.感知损失
答案:A?解析:DDPM训练网络预测添加的噪声ε。
1.17下列关于BERT中NSP(NextSentencePrediction)任务的描述,正确的是
A.用于提升问答能
原创力文档

文档评论(0)