- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
(19)国家知识产权局
(12)发明专利
(10)授权公告号CN117668153B(45)授权公告日2025.07.01
(21)申请号202311340706.8
(22)申请日2023.10.16
(65)同一申请的已公布的文献号申请公布号CN117668153A
(43)申请公布日2024.03.08
(73)专利权人吴东
地址100085北京市海淀区上地十街辉煌
国际大厦2号楼1210
(72)发明人吴东
(74)专利代理机构北京市鼎立东审知识产权代理有限公司11751
专利代理师陈佳妹
(51)Int.CI.
GO6F16/334(2025.01)
GO6F16/3329(2025.01)
GO6N5/04(2023.01)
GO6N5/01(2023.01)
(56)对比文件
CN116303949A,2023.06.23CN111160568A,2020.05.15
CN116861259A,2023.10.10审查员徐彬
权利要求书2页说明书8页附图3页
(54)发明名称
大模型在线推理与训练一体化方法及系统
(57)摘要
CN117668153B本申请涉及一种大模型在线推理与训练一体化方法及装置,该方法包括接收用户输入数据并输入微调模型,得到模型回复结果;判断模型回复结果是否存在纠正情况;在存在纠正情况时,将相应的用户输入数据和模型回复结果存入消息中间件;获取消息中间件的训练数据,并利用在线SFT和RLHF分别对微调模型进行监督微调及强化训练,得到符合预设要求的微调模型。本申请通过将用户输入数据和微调模型的回复结果存入消息中间件,借此充分利用推理过程中的前向过程向量和用户反馈,从而实现重复利用的目的,有效的解决每次模型迭代都需要人工启动
CN117668153B
接收用户输入数据并输入微调模型,得到模型
接收用户输入数据并输入微调模型,得到模型回复结果;
判断模型回复结果是否存在纠正情况;
在存在纠正情况时,将相应的用户输入数据和模型回复结果存入消息中间件;
获取消息中间件的训练数据,并利用在线SFT和RLHF分别对微调模型进行监督微调及强化训练,得到符合预设要求的微调模型。
S100
S200
-S300
S400
CN117668153B权利要求书1/2页
2
1.一种大模型在线推理与训练一体化方法,其特征在于,包括如下步骤:
接收用户输入数据并输入微调模型,得到模型回复结果;
判断所述模型回复结果是否存在纠正情况;
在存在所述纠正情况时,将相应的所述用户输入数据和所述模型回复结果存入消息中间件;
获取所述消息中间件的训练数据,并利用在线SFT和RLHF分别对所述微调模型进行监督微调及强化训练,得到符合预设要求的所述微调模型;
在对微调模型进行在线训练之前,实时监听消息中间件中的消息数量,当存在纠正语义的消息数量达到预设训练批次大小时,一次性提取数据开始在线训练流程。
2.根据权利要求1所述的大模型在线推理与训练一体化方法,其特征在于,所述接收用户输入数据并输入微调模型,得到模型回复结果,包括:
接受用户输入指令和文本;
将所述用户输入指令和文本输入所述微调模型进行多轮对话,得到相应的模型回复结果;
其中,所述微调模型能够部署对话任务。
3.根据权利要求1所述的大模型在线推理与训练一体化方法,其特征在于,在利用在线SFT对所述微调模型进行监督微调时,所述在线SFT的训练数据包括SFT数据和预先标注的监督训练数据;
其中,所述SFT数据基于所述用户输入指令文本和所述模型回复结果中对应的纠正语义组合得到。
4.根据权利要求1所述的大模型在线推理与训练一体化方法,其特征在于,在利用RLHF对所述微调模型进行强化训练时,包括:
获取奖励模型训练数据;
基于所述奖励模型训练数据对奖励模型进行训练,更新所述奖励模型;
利用所述奖励模型对所述模型回复结果打分,强化训练所述微调模型。
5.根据权利要求4所述的大模型在线推理与训练一体化方法,其特征在于,所述奖励模型训练数据基于所述用户输入数据,以及所述模型回复结果中的chosen回复和rejected回复组建得到。
6.根据权利要求4所述的大模型在线推理与训练一体化方法,其特征在于,在获取奖励模型训练数据后,还包括:
对所述微调模型进行文本分布约束,提高所述奖励模型
您可能关注的文档
- (正式版)DB12∕T 774-2018 《基本医疗保险药品代码》.docx
- (正式版)DB12∕T 775-2018 《防雷装置检测业务规范 》.docx
- (正式版)DB12∕T 777-2018 《天津市行道树苗木质量要求》.docx
- (正式版)DB12∕T 785-2018 《奶牛舍机械刮板清粪 》.docx
- (正式版)DB12∕T 787-2018 《奶牛养殖场肥水农田施用冬小麦 》.docx
- (正式版)DB12∕T 788-2018 《水产养殖物联网水质参数集成在线采集装置技术要求 》.docx
- (正式版)DB12∕T 791-2021 《红色旅游景区(点)评定规范》.docx
- (正式版)DB12∕T 792-2018 《肠道门诊设置与管理指南》.docx
- (正式版)DB12∕T 793-2018 《预防接种门诊消毒工作指南 》.docx
- (正式版)DB12∕T 795-2018 《生活饮用水中5种人工合成甜味剂的测定 液相色谱-串联质谱法 》.docx
原创力文档


文档评论(0)