程序切片和对比学习在面向程序修复的预训练模型微调研究.pdf

程序切片和对比学习在面向程序修复的预训练模型微调研究.pdf

程序切片和对比学习在面向程序修复的预训练模型微调研究

摘要

预训练语言模型(Pre-trainedLanguageModels,PLMs)不断发展为当前自动

程序修复技术(AutomatedProgramRepair,ARP)提供了新的研究方向与技术手

段。然而,目前大多数利用预训练模型进行程序修复的方法,仅将包含漏洞的代

码作为文本输入到模型进行提示或微调,忽略了漏洞语句的结构特征和上下文语

义关系,这引入了大量无关噪声,进而影响修复效果。

为了解决上

文档评论(0)

1亿VIP精品文档

相关文档