2025年低资源NLP领域适配习题(含答案与解析).docx

2025年低资源NLP领域适配习题(含答案与解析).docx

2025年低资源NLP领域适配习题(含答案与解析)

一、单选题(共15题)

1.以下哪项技术是用于减少低资源NLP模型参数量的常用方法?

A.知识蒸馏

B.模型剪枝

C.参数高效微调(LoRA/QLoRA)

D.数据增强

答案:C

解析:参数高效微调(LoRA/QLoRA)通过仅微调模型的一小部分参数来优化模型,从而在保持模型性能的同时减少参数量,适用于低资源环境。参考《低资源NLP模型优化指南》2025版3.2节。

2.在低资源NLP任务中,以下哪种方法可以有效提高模型对未知数据的泛化能力?

A.模型并行策略

B.分布式训练框架

C.持续预训练策略

D.云边端协同

文档评论(0)

1亿VIP精品文档

相关文档