基于大语言模型微调的少样本方面级情感分析研究.pdfVIP

  • 0
  • 0
  • 约6.02万字
  • 约 12页
  • 2026-01-30 发布于江西
  • 举报

基于大语言模型微调的少样本方面级情感分析研究.pdf

2025年6月现代情报June,2025

第45卷第6期JournalofModernInformationVol45No6

·情报方法与技术创新·

基于大语言模型微调的少样本方面级情感分析研究

1∗12

朱侯谭雅文魏文韬

(1.中山大学信息管理学院,广东广州510006;2.中山大学计算机学院,广东广州510006)

摘要:[目的/意义]针对中文方面级情感分析(AspectbasedSentimentAnalysis,ABSA)中面临的数据集不

充分和跨领域迁移难的问题,探索中文大语言模型在ABSA任务中的应用和性能。[方法/过程]本研究使用

--

ChatGLM模型,通过提示工程及LoRa(LowRankAdaptation)与PTuning的微调技术,在中文公开方面级情感分

析数据集ASAP上开展ABSA任务。[结果/结论]与基线模型相比,基于少样本提示的ChatGLM性能接近全样本

深度学习模型,而结合LoRa和PTuning的模型则取得最佳效果,并在实际的ASAP数据集中展现出良好的分类

能力。本研究验证了中文大语言模型的方面级情感分析在中文环境下的有效性和可行性,为中文ABSA领域提供

了新的解决思路和参考。

关键词:大语言模型;方面级情感分析;提示工程;微调;少样本学习

DOI:10.3969/j.issn.10080821.2025.06.001

---

〔中图分类号〕TP3911;TP18〔文献标识码〕A〔文章编号〕10080821(2025)06000311

--

ResearchonFewShotAspectBasedSentimentAnalysis

BasedonLargeLanguageModelFineTuning

1∗12

ZhuHouTanYawenWeiWentao

(1.SchoolofInformationManagement,SunYatsenUniversity,Guangzhou510006,China;

2.SchoolofComputerScienceandEngineering,SunYatsenUniversity,Guangzhou510006,China)

文档评论(0)

1亿VIP精品文档

相关文档