知识表示与处理(2025-第16次课 大语言模型技术前沿II).pdfVIP

知识表示与处理(2025-第16次课 大语言模型技术前沿II).pdf

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

知识注入

大模型知识注入(KnowledgeInjectioninLargeLanguageModels)是指在不

完全依赖模型预训练参数的前提下,通过外部手段将结构化或非结构化知识主动引入

大语言模型,以增强其在特定领域或任务中的准确性、时效性、可解释性和可控性的

一种关键技术。

为什么需要知识注入?

尽管大语言模型在预训练阶段学习了海量文本,

但其知识仍存在以下局限:

•静态性:知识截止于训练数据的时间,难以覆盖新

事件;

•幻觉问题:模型可能生成看似合理但错误的事实;

•领域专业性不足:通用模型在医疗、法律、金融等

专业场景表现有限;

•知识不可控:无法灵活更新或修正内部知识。

输入层注入(数据增强):K-BERT

K-BERT(Knowledge-enabledBERT)

是一种将结构化知识(如知识图谱)显

式注入预训练语言模型(如BERT)的代

表性方法,旨在增强模型对事实性知识

的理解与推理能力,同时缓解通用语言

模型常见的“知识幻觉”问题。

核心思想:在不改变模型原始架构的前

提下,通过“知识融合”方式,在输入

层动态注入来自知识图谱(KG)的相关

三元组信息,使模型在理解句子时能结

合外部事实知识。

K-BERT开启了“知识显式融合”的研究

方向。

LiuW,ZhouP,ZhaoZ,etal.K-bert:Enablinglanguagerepresentationwithknowledgegraph[C]//ProceedingsoftheAAAI

ConferenceonArtificialIntelligence.2020,34(03):2901-2908.

输入层注入(数据增强):K-BERT

LiuW,ZhouP,ZhaoZ,etal.K-bert:Enablinglanguagerepresentationwithknowledgegraph[C]//ProceedingsoftheAAAI

ConferenceonArtificialIntelligence.2020,34(03):2901-2908.

架构层注入(模型增强):ERNIE

ERNIE(EnhancedRepresentationthroughkNowledgeIntEgration)通过修改

模型内部结构或预训练目标,将知识(尤其是实体与语义知识)内化到模型的表示学

习过程中。代表了“架构层知识注入”(Architectural-levelKnowledgeInjection

)的典型范式。

thearchitectureofERNIE

/abs/1904.09223

架构层注入(模型增强):ERNIE

/blog/zh/posts/ernie4.5/

目标层注入(多任务学习):KEP

文档评论(0)

186****7161 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档