LLaMA-Factory 快速上手教程.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

LLaMA-Factory快速上手教程

1.项目背景

开源大模型如LLaMA,Qwen,Baichuan等主要都是使用通用数据进行训练而来,其对于不同下游的使用场景和垂直领域的效果有待进一步提升,衍生出了微调训练相关的需求,包含预训练(pt),指令微调(sft),基于人工反馈的对齐(rlhf)等全链路。但大模型训练对于显存和算力的要求较高,同时也需要下游开发者对大模型本身的技术有一定了解,具有一定的门槛。

LLaMA-Factory项目的目标是整合主流的各种高效训练微调技术,适配市场主流开源模型,形成一个功能丰富,适配性好的训练框架。项目提供了多个高层次抽象的调用接口,包含多阶段训练,推理测试,benchmark评测,APIServer等,使开发者开箱即用。同时借鉴StableDiffsionWebUI相关,本项目提供了基于gradio的网页版工作台,方便初学者可以迅速上手操作,开发出自己的第一个模型。

2.本教程目标

以Meta-Llama-3-8B-Instruct模型和Linux+RTX409024GB环境,LoRA+sft训练阶段为例子,帮助开发者迅速浏览和实践本项目会涉及到的常见若干个功能,包括

原始模型直接推理

自定义数据集构建

基于LoRA的sft指令微调

动态合并LoRA的推理

批量预测和训练效果评估

LoRA模型合并导出

一站式webuiboard的使用

APIServer的启动与调用

大模型主流评测benchmark

导出GGUF格式,使用Ollama推理

本教程大部分内容都可以通过LLaMA-Factory下的?README.md,data/README.md,examples文件夹下的示例脚本得到,遇到问题请先阅读项目原始相关资料。

关于全参训练,flash-attention加速,deepspeed,rlhf,多模态模型训练等更高阶feature的使用,后续会有额外的教程来介绍

3.?前置准备

训练顺利运行需要包含4个必备条件

机器本身的硬件和驱动支持(包含显卡驱动,网络环境等)

本项目及相关依赖的python库的正确安装(包含CUDA,Pytorch等)

目标训练模型文件的正确下载

训练数据集的正确构造和配置

3.1硬件环境校验

显卡驱动和CUDA的安装,网络教程很多,不在本教程范围以内

使用以下命令做最简单的校验

nvidia-smi

预期输出如图,显示GPU当前状态和配置信息

那多大的模型用什么训练方式需要多大的GPU呢,可参考?/hiyouga/LLaMA-Factory?tab=readme-ov-file#hardware-requirement

新手建议是3090和4090起步,可以比较容易地训练比较主流的入门级别大模型7B和8B版本。

3.2CUDA和Pytorch环境校验

请参考项目的readme进行安装

/hiyouga/LLaMA-Factory?tab=readme-ov-file#dependence-installation

2024年51期间系统版本有较大升级,2024-06-07号的安装版本命令如下,请注意conda环境的激活。

gitclone/hiyouga/LLaMA-Factory.git

下载miniconda

mkdir-p~/miniconda3

wget/miniconda/Miniconda3-latest-Linux-x86_64.sh-O~/miniconda3/miniconda.sh

bash~/miniconda3/miniconda.sh-b-u-p~/miniconda3

rm-rf~/miniconda3/miniconda.sh

~/miniconda3/bin/condainitbash

condacreate-nllama_factorypython=3.10

condaactivatellama_factory

cdLLaMA-Factory

pipinstall-e.[torch,metrics]-i/simple

上述的安装命令完成了如下几件事

新建一个LLaMA-Factory使用的python环境(可选)

安装LLaMA-Factory所需要的第三方基础库(requirements.txt包含的库)

安装评估指标所需要的库,包含nltk,jieba,rouge-chinese

安装LLaMA-Factory本身,然后在系统中生成一个命令llamafactory-cli(具体用法见下方教程)

安装后使用以下命令做简单的正确性校验

校验1

importtorch

您可能关注的文档

文档评论(0)

AI优质资料创作家 + 关注
实名认证
文档贡献者

从事10年计算机专业,目前是AI算法工程师,致力于将自己的知识和想法整理出来帮助到有需要的朋友。

1亿VIP精品文档

相关文档