自然语言处理之本地⼤模型使⽤和⼤模型微调流程学习笔记.pdfVIP

自然语言处理之本地⼤模型使⽤和⼤模型微调流程学习笔记.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

day33-⾃然语⾔处理11

上课⽇期May12,2024

主要内容本地⼤模型使⽤,⼤模型微调流程,微调数据准备

主讲⽼师李晓华

复习May13,2024

课时6

重点内容导航:

1.Huggingface⼤模型规范与使⽤代码调⽤本地⼤模型的例⼦(上午

005900020000)

2.使⽤LLamaFactory框架对预训练⼤模型进⾏微调的流程演⽰(下午

002200〜010500)

3.使⽤OpenAI接⼝调⽤⼤模型023400030000

本次课程重点演⽰了本地⼤模型使⽤和微调的过程,重点参考李⽼师上课的

演⽰流程。

关键词:Huggingface,LLamaFactory,Lora,OpenAIAPI

1.资源站点

模型权重:modelscope

应⽤代码:github

2.下载模型

Base:Qwen1.50.5B

Chat:Qwen1.50.5BChat

3.开发范式

传统深度学习:

针对某个具体的问题

搭建针对性的模型

day33⾃然语⾔处理111

采集针对性的数据

训练模型

模型评估

模型部署

⼤模型时代:

1,预训练⼀个不针对任何任务的模型

⼤量的数据和时间

⾃监督学习

base底座⼤模型

2,SFT针对特定任务的微调

对⻬⼈类说话⻛格

对⻬⾏业知识

对⻬多轮对话

对⻬价值观/意识形态

3,RLHF基于⼈类反馈的强化学习

进⼀步做上述对⻬

4.⼤模型时代,开发者能⼲什么?

⼀句话:把公共⼤模型(⼤公司产品,开源⼤模型)变成私有(⾏业,领域,个

⼈)⼤模型

原因:

数据安全

⾏业知识

费⽤问题

系统集成

策略:

1,修改模型参数的:

PT

day33⾃然语⾔处理112

SFT

RLHF

知识注⼊进模型

2,不修改模型参数的:

RAG:检索-增强-⽣成

知识没有注⼊模型,作为⼀个外挂使⽤

丰富了问题的上下⽂

3,让⼤模型⼲⼀些超出⼈⼯智能范畴的事情

外挂外部⼯具

agent

5.如何微调⼤模型?

LLaMAFactory

训练阶段和具体的训练策略是两码事⼉

训练策略:

1,预训练

文档评论(0)

AI优质资料创作家 + 关注
实名认证
文档贡献者

从事10年计算机专业,目前是AI算法工程师,致力于将自己的知识和想法整理出来帮助到有需要的朋友。

1亿VIP精品文档

相关文档