- 0
- 0
- 约5.61千字
- 约 35页
- 2026-03-25 发布于浙江
- 举报
千亿参数LLM的训练效率优化
演讲人:张力寰
零一万物/AIInfra分布式训练优化架构师
目录
CONTENTS
01模型训练硬件利用率影响因素02分布式训练效率提升
03FP8训练经验分享04MoE训练经验分享
05Goodput提升06总结与展望
模型训练硬件利用率影响因素
Llama3.1
•92页的技术报告
•最大405B的模型
•16KH100训练集群
•54天的预训练,466次任务中断
•MFU:40%左右
•Goodput:90%左右的有效训练时间占比
/pdf/2407.21783
MFU
•ModelFLOPSUtilization,模型算力利用率
•FLOPS(FloatingPointOperationsPer
您可能关注的文档
- RAG到数据丰富与您的企业数据对话.doc
- Security分论坛-杨天识-国内AI安全合规体系概述.pdf
- RAG和向量数据库打造差异化的生成式AI应用.doc
- 工业大模型应用报告.pdf
- 数据隐私和安全的要点-Jeff Jockisch .pdf
- 下午2 Eno伊诺_应急响应最佳实践.pdf
- RDMA在数据库上的应用--尹海文.doc
- Red Teaming Language Models to Reduce Harms:Methods, Scaling Behaviors, and Lessons LearnedChatGPT主题资料合编.doc
- 学习新技巧联合利华深入了解UNITYCATALOG.pdf
- RedHat红帽2024年Kubernetes安全防护状况报告31页.doc
原创力文档

文档评论(0)