2025年AI安全漏洞评估试题(含答案与解析).docx

2025年AI安全漏洞评估试题(含答案与解析).docx

2025年AI安全漏洞评估试题(含答案与解析)

一、单项选择题(每题2分,共20题,总计40分)

1.以下哪种AI系统架构最易出现数据投毒漏洞?()

A.基于规则的专家系统

B.监督学习模型

C.强化学习模型

D.提供式预训练大语言模型

答案:B

解析:监督学习模型的性能高度依赖训练数据的质量与真实性,攻击者可通过在训练数据集中注入恶意样本(如添加带误导性标签的数据),使模型在推理阶段输出错误结果。规则系统依赖人工制定的逻辑,不受训练数据干扰;强化学习主要受环境反馈影响,数据投毒的直接影响相对较弱;提供式大模型虽也可能受训练数据污染,但监督学习对训练数据标签的强依赖使其成为数据投毒

文档评论(0)

1亿VIP精品文档

相关文档